OpenAI: Preparedness-Framework soll mächtige KI-Modelle in Schach halten
Mit dem immer aktueller werdenden Thema der künstlichen Intelligenz steht natürlich auch ein wenig Angst im Raum. Werden wir irgendwann in einem Skynet-Szenario leben, in dem die KI uns mit Robotern etc. befehligt? Das ist natürlich vollkommen überspitzt, doch die Gefahr besteht, dass eine KI außer Kontrolle gerät. OpenAI hat nun sein Preparedness-Framework vorgestellt.
Hierbei handelt es sich um Prozesse und Tools, um die potenziellen Gefahren von großen und mächtigen KI-Modellen zu überwachen und zu managen. Das Non-Profit-Unternehmen hatte sich ursprünglich dem Erstellen eine ethisch korrekten und verantwortlichen künstlichen Intelligenz verschrieben, doch zuletzt stand man wegen des kommerziellen Fokus in der Kritik, am Ende stand man in dem Chaos rund um Sam Altmans Entlassung. Die Veröffentlichung des Frameworks ist jetzt ein kleiner Schritt zurück zu den Wurzeln. Man erklärt in einem Blog-Post näher, wie man die Risiken vorhersagen, verwalten, nachverfolgen und verhindern möchte. Zum Beispiel sollen Scorecards für KI-Modelle zum Managen helfen. Diese Scorecards sollen regelmäßig aktualisiert werden.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Seit wann ist openai non-profit?
Ist als nonproft gegründet worden. Aktuell capped profit. https://openai.com/our-structure
„The cap comes into effect when the profits surpass a 100x return.“
Augenwischerei bei dem Faktor. Es ist ein normales gewinnorientiertes Unternehmen.
Das wird eventuell ein Problem bei OpenAI verhindern. Ich frage mich wie man irgenwelche übereifrigen Entwickler in anonymen Kellern daran hindern will etwas zu Intelligentes zu entwickeln. Vielleicht nicht heute, aber in 10 Jahren sind superintelligente Forks, wo keiner mehr weiß was die wirklich im Verborgenen tun, bestimmt ein Thema.
KI wird ein Ressourcenthema bleiben. Die Killer-KI aus dem Kinderzimmer wird es also nicht geben. Und die AGI wird kontrolliert im Labor entwickelt, da existiert keine direkte Verbindung zur Außenwelt. Da sollten Risiken durch Social Engineering und Spionage nicht unterschätzt werden. Insbesondere eine clevere Manipulation der Mitarbeiter durch die AGI selbst könnte einen Kontrollverlust auslösen. Zum Beispiel, wenn die KI uns nur die wissenschaftlichen Erkenntnisse liefert, die ihr selbst langfristig nützen. Offensichtlich bauen wir gerade autonome Roboter und versprechen uns davon skalierbare Arbeitskraft.
Wenn du sagst „KI wird ein Ressourcen Thema bleiben“ sage ich „Ich glaube, es gibt einen Weltmarkt für vielleicht fünf Computer“
Schau dir die Entwicklung der letzten 20/30 Jahre an, was als Supercomputer galt und was wir jetzt als Smartphone in der Hand halten.
Ich denke das ist kein Vergleich. Bei KI geht es ja eher um ein Wettrennen. Und um zentral vorberechnete Modelle sowie so banale Sachen wie Zugriff und Sammeln von Daten. Ist also kein reines Skalierungsproblem bei den Clients.
Statt des Skynet Szenarios finde ich ja die Idee in Neal Ashers Polity Universe viel charmanter. Die KIs übernehmen heimlich die Macht und als die Menschheit das schließlich realisiert, stellen sie fest, dass die KIs den Job sehr viel besser machen als jeder menschliche Politiker vorher. In Hinblick auf die aktuelle Riege der Politiker finde ich das gar nicht so abwegig :-).