Google, Microsoft und OpenAI rüsten den AI Safety Fund mit 10 Mio. US-Dollar
Google, Microsoft und OpenAI schieben gemeinsam mit Anthropic rund 10 Mio. US-Dollar in einen sogenannten AI Safety Fund. Dieser soll unter Mittel für die Arbeit an Tools bereitstellen, um die leistungsfähigsten KI-Modelle zu evaluieren – auch in Bezug auf ihre gesellschaftlichen Potenziale und Gefahren. Ebenfalls wird man generelle Forschung zum Thema Sicherheit im KI-Bereich fördern.
Zu beachten ist, dass 10 Mio. US-Dollar vielleicht viel klingen, für die beteiligten Unternehmen aber nur Peanuts sind. Immerhin bezeichnet man die doch eher geringe Summe, welche die finanzstarken Partner gebündelt zuschießen, nur als initialen Schritt. So rechnet man damit, dass auch andere Partner später die finanziellen Mittel aufstocken.
Die beteiligten Unternehmen sehen den neuen AI Safety Fund auch als Teil ihrer freiwilligen Selbstverpflichtungen an, verantwortlich zu künstlicher Intelligenz zu forschen. Hier kann man sich sicher darüber streiten, ob ernsthafte Absichten erkennbar sind oder eher aus Imgepflege das Nötigste gemacht wird. Anfangs sollen die Mittel aus dem Topf vor allem in Techniken fließen, welche das Gefahrenpotential neuer KI-Systeme bewerten.
In den kommenden Monaten will man da auch einen Aufruf an Forschende starten. Verwalten soll das Meridian Institute die Mittel. Zudem soll ein Komitee unabhängiger Experten von KI-Firmen und Menschen mit Erfahrung im Bereich der Forschungsförderung mitentscheiden. Man möchte dann möglichst rasch die ersten Mittel ausschütten.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Halte 10 Millionen bei diese Aufgabenstellung für nicht für besonders viel Geld.