OpenAI will ein „unabhängiges“ Sicherheitskomitee aufbauen
OpenAI will ein „unabhängiges“ Sicherheitskomitee aufbauen, welches quasi das Unternehmen überwachen soll. Etwas Ähnliches gibt es ja z. B. auch bei Meta in Form des Oversight Boards. Bei OpenAI soll deswegen aus dem bisherigen Safety and Security Committee das neue „Board Oversight Committee“ werden. Dieses soll z. B. sogar die Chance erhalten, die Veröffentlichung neuer KI-Modelle zu blockieren, wenn es Sicherheitsbedenken gibt.
Während im Oversight Board von Meta aber tatsächlich unternehmensfremde Personen aktiv sind, z. B. Wissenschaftler, sollen es im Falle von OpenAIs Pendant Manager sein, die unter anderem auch im Vorstand sitzen. Deswegen habe ich „unabhängig“ auch in Anführungsstriche gesetzt. Hier dürfte diese Unabhängigkeit wohl hauptsächlich auf dem Papier bestehen.
Laut OpenAI wolle man seine Bestrebungen in Bezug auf die Sicherheit ausbauen und auch transparenter gegenüber der Öffentlichkeit werden. Da soll das neue Komitee eben ein Schritt in diese Richtung sein. Es soll auch vermehrt externe Partnerschaften anstreben.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Damit kann man auch geschickt die Konkurrenz aus freien Bereichen ausgrenzen, da diese meist nicht die Mittel haben für derlei Prozesse. Siehe auch die Gesetzgebung in Kaliforniern, bzw. jene die ansteht. Google, Meta und OpenAI sind auch die Hauptakteure die den Gesetzentwurf in Kaliforniern befürworten 🙂