OpenAI: Preparedness-Framework soll mächtige KI-Modelle in Schach halten

Mit dem immer aktueller werdenden Thema der künstlichen Intelligenz steht natürlich auch ein wenig Angst im Raum. Werden wir irgendwann in einem Skynet-Szenario leben, in dem die KI uns mit Robotern etc. befehligt? Das ist natürlich vollkommen überspitzt, doch die Gefahr besteht, dass eine KI außer Kontrolle gerät. OpenAI hat nun sein Preparedness-Framework vorgestellt. 

Hierbei handelt es sich um Prozesse und Tools, um die potenziellen Gefahren von großen und mächtigen KI-Modellen zu überwachen und zu managen. Das Non-Profit-Unternehmen hatte sich ursprünglich dem Erstellen eine ethisch korrekten und verantwortlichen künstlichen Intelligenz verschrieben, doch zuletzt stand man wegen des kommerziellen Fokus in der Kritik, am Ende stand man in dem Chaos rund um Sam Altmans Entlassung. Die Veröffentlichung des Frameworks ist jetzt ein kleiner Schritt zurück zu den Wurzeln. Man erklärt in einem Blog-Post näher, wie man die Risiken vorhersagen, verwalten, nachverfolgen und verhindern möchte. Zum Beispiel sollen Scorecards für KI-Modelle zum Managen helfen. Diese Scorecards sollen regelmäßig aktualisiert werden.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei Twitter, Instagram, XING und Linkedin, oder via Mail

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

8 Kommentare

  1. Seit wann ist openai non-profit?

  2. Das wird eventuell ein Problem bei OpenAI verhindern. Ich frage mich wie man irgenwelche übereifrigen Entwickler in anonymen Kellern daran hindern will etwas zu Intelligentes zu entwickeln. Vielleicht nicht heute, aber in 10 Jahren sind superintelligente Forks, wo keiner mehr weiß was die wirklich im Verborgenen tun, bestimmt ein Thema.

    • KI wird ein Ressourcenthema bleiben. Die Killer-KI aus dem Kinderzimmer wird es also nicht geben. Und die AGI wird kontrolliert im Labor entwickelt, da existiert keine direkte Verbindung zur Außenwelt. Da sollten Risiken durch Social Engineering und Spionage nicht unterschätzt werden. Insbesondere eine clevere Manipulation der Mitarbeiter durch die AGI selbst könnte einen Kontrollverlust auslösen. Zum Beispiel, wenn die KI uns nur die wissenschaftlichen Erkenntnisse liefert, die ihr selbst langfristig nützen. Offensichtlich bauen wir gerade autonome Roboter und versprechen uns davon skalierbare Arbeitskraft.

      • Wenn du sagst „KI wird ein Ressourcen Thema bleiben“ sage ich „Ich glaube, es gibt einen Weltmarkt für vielleicht fünf Computer“

        Schau dir die Entwicklung der letzten 20/30 Jahre an, was als Supercomputer galt und was wir jetzt als Smartphone in der Hand halten.

        • Ich denke das ist kein Vergleich. Bei KI geht es ja eher um ein Wettrennen. Und um zentral vorberechnete Modelle sowie so banale Sachen wie Zugriff und Sammeln von Daten. Ist also kein reines Skalierungsproblem bei den Clients.

  3. Statt des Skynet Szenarios finde ich ja die Idee in Neal Ashers Polity Universe viel charmanter. Die KIs übernehmen heimlich die Macht und als die Menschheit das schließlich realisiert, stellen sie fest, dass die KIs den Job sehr viel besser machen als jeder menschliche Politiker vorher. In Hinblick auf die aktuelle Riege der Politiker finde ich das gar nicht so abwegig :-).

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.