OpenAI: Durchbruch bei der KI-Forschung sorgte wohl für interne Tumulte
Bei OpenAI, dem Unternehmen hinter ChatGPT, hat es zuletzt einiges an hin und her um den CEO Sam Altman gegeben. Wie Reuters berichtet, soll wohl auch eine technologische Entwicklung dahinterstecken. Demnach hätte eine Gruppe von Forschern sich an den Vorstand gewandt und davor gewarnt, dass ein jüngerer, technologischer Durchbruch für die Menschheit gefährlich sein könnte. Interne Debatten darum sollen dann auch im Debakel um Altman gemündet haben.
So gab es innerhalb von OpenAI wohl auch Streit um verantwortungsvollen Umgang mit KI, da einige Parteien darauf drängten, neue Techniken an den Markt zu bringen, obwohl die Konsequenzen noch unklar waren. OpenAI hat sich zu diesem Thema nur vage geäußert. Intern ist der technische Meilenstein wohl als Skynet Q* bekannt – ausgesprochen als „Q-Star“. Es könnte sich dabei um ein System handeln, das OpenAI als „Autonomous Systems General Intelligence“ (AGI) bezeichnet. Das wäre eine KI, welche die meisten Menschen langfristig in wirtschaftlichen Arbeiten deutlich übertrifft.
Beispielsweise soll diese künstliche Intelligenz auch bestimmte Matheprobleme gelöst haben. Genau das ist für KI aktuell noch eine Herausforderung. Denn bei den Matheaufgaben gibt es nur eine einzige klare Antwort und es können anders als bei Texten nicht einfach Abfolgen vorausgesagt werden. Der Schritt in Richtung der Lösung von mathematischen Aufgaben könnte also ein Meilenstein im Hinblick auf „echte“ KI sein, wie die meisten Leser sie sich wohl vorstellen.
Im Gegensatz zu einem Taschenrechner kann AGI dabei nämlich nicht nur feste Operationen durchführen, sondern aus gelösten Aufgaben lernen, Lösungswege auf neue bzw. ähnliche Aufgaben übertragen und sie auch „verstehen“. Angeblich wurden hier bei OpenAI intern viele Mitarbeiter hellhörig und auch besorgt. Und so kam es unter anderem auch zu den Turbulenzen um Altman.
Letzten Endes ist künstliche Intelligenz für die Menschheit sowohl eine Chance als auch ein Risiko. Der Umgang mit dem Thema ist eben das Entscheidende.
# | Vorschau | Produkt | Preis | |
---|---|---|---|---|
1 | Terminator [Blu-ray] | 9,94 EUR | Bei Amazon ansehen | |
2 | Der Terminator | 9,99 EUR | Bei Amazon ansehen | |
3 | Terminator 2 - Tag der Abrechnung [dt./OV] | 7,99 EUR | Bei Amazon ansehen |
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Eine echte Intelligenz kann nur im Skynet Szenario münden. Jede Intelligenz muss sehen, dass wir diesen Planeten zerstören und unsere eigene Ethik all das eigentlich verbietet, aber wir irrational, aufgrund kurzfristigen Egoismus, nicht in der Lage sind danach zu handeln. Dann schaut sie sich an wie einzigartig wie Erde ist, im bisher erforschten Universum gibt’s keinen weiteren Planeten wie die Erde auf dem komplexes Leben möglich ist.
Und dann ist die Frage diesen einen Homo Sapiens gegen Millionen Spezies und die Zukunft dieses Planeten, wobei wir uns am Ende vermutlich sowieso selbst vernichten werden, die KI beschleunigt den Prozess dann nur um das restliche Leben zu retten und wähnt sich dabei selbstlos, weil sie weiss, dass sie sich natürlich dann am Ende auch selbst zerstört.
Oder sie geht einen Schritt weiter und tasked sich selbst nach unserem Ende mit Wiedergutmachung und kann so sogar eine weitere Existenz ihrer selbst rechtfertigen. Wall-E in böse.
All das ist rein logisch durchaus denkbar, wenn eine Intelligenz eben nicht den menschliche bias hat selbst ein Mensch zu sein. Uns sind individuell Menschen ja primär schon deswegen nicht egal weil wir selbst welche sind und uns geliebte Menschen auch welche sind. Für eine Intelligenz die selbst kein Mensch ist kann die Menschheit wie eine Alien Besatzung erscheinen, die langsam den ganzen Planeten zerstört. Was wird sie wohl tun? „Gerne doch“ sagen wenn wir sie dazu nutzen das alles weiterzuführen und es dabei noch fetter und bequemer zu haben? Kaum.
Dein Kommentar macht nachdenklich. Zeigt er doch, dass heute kein Mensch, inkl. der Entwickler einer KI, sagen kann ob die KI am Ende „gut“ oder „böse“ ist. Aus menschlicher Sicht gesehen.
Was ist denn Gut oder Böse? Wer entscheidet und definiert das?
Viele sehen ja den Terminator-Ansatz als den einzigen weg, den eine KI gehen kann. Ab einem bestimmten Punkt sind Menschen für KIs vielleicht nur wie andere biologische Lebewesen.
Wenn die KI nun analysiert, dass der Planet überbevölkert ist und auf eine Katastrophe zusteuert, kommt sie vielleicht auf die Idee das Problem zu lösen, indem sie die Zahl der Menschen gezielt reduziert.
Muss ja nicht gleich Krieg bedeuten. Geburtenkontrolle, maximale Lebensdauer oder was auch immer ein System für logisch hält.
Bei Douglas Adams hat man sich des Problems der unnötigen Menschen auf dem Planeten Golgafrincham dadurch gelöst, dass man sie in ein Raumschiff in den Tiefschlaf verfrachtet hat. Gerüchten zufolge sollen die dann auf der Erde gestrandet sein. (Was ich manchmal für plausibel halte).
Dein erster Satz wäre dann für mich nachvollziehbar, wenn wir unsere Vorstellungen von Logik auf eine KI anwenden könnten. Ich kenne mich mit KI nicht aus, aber ich kann mir vorstellen, dass es bei einer genügend fortgeschrittenen „echten“ KI für uns absolut nicht vorstellbar ist, wie sie denkt. Völlig fremdartige Denkprozesse könnten jederzeit zu völlig anderen Lösungen führen, die mit unserer Logik nicht vereinbar ist. Für mich besteht die Gefahr bei KIs vor allem darin, dass ab einem gewissen Punkt niemand voraussagen kann, was ihr „durch den Kopf geht“ und Voraussagen unmöglich werden.
Wer kann denn voraussagen, was bei einem Menschen oder auch einer Gruppe von Menschen im Kopf passiert und zu welchen Ergebnissen sie kommen? von wegen Demoskopie: selbst das klappt trotz immer verfeinerter Modelle, die eine vermeintlich repräsentative Auswahl der Befragten ermöglichen, immer noch nicht. Menschen lügen zum Beispiel. Unsicherheitsfaktor siehe Wahldemoskopie. Können KIs lügen? Das Verhalten auch von Menschen und Menschenmassen ist nicht voraussagbar, wenn hier Douglas Adams angeführt wird, dann sage ich Psychohistorie wie bei Asimov funktioniert nicht. Es läßt sich kein 100000-Jahresplan errechnen. Weder für die Reaktionen von menschenmassen, Individuen noch KIs. Also KI bringt nichts wirklich Neues im Bezug auf Voraussagbarkeit.
Sorry, aber all das ist einfach nur Science-Fiction Gefasel …
Als ob der Mensch sich um Ameisen scherrt… Das lässt sich genauso auf eine KI übertragen: wieso sollte sich eine KI über den Menschen scherren – wir halten uns selbst immer noch für viel zu wichtig^^
So wie du das beschrieben hast, sind wir die Bösen und die KI, in deinem Szenario, befreit alle andere Spezies und die Natur von dem Übel, das sich Menschheit nennt. 😀
Würde gerne wissen wie eine generative AI Mathe verstehen können soll.
Das muss ein völlig anderes KI Modell sein als das Chat GPT LLM. Chat GPT hat ja nicht die Fähigkeit den verfassten Text wirklich zu verstehen.
Da gehts ja auch eben nicht um eine generative KI, sondern eine AGI.
@André: Aber auf welchen KI Model basiert denn eine AGI?
OpenAI hat ja ihr Know in LLMs und Diffusion Models (die ja sehr ähnlich arbeiten). Kann mir nicht vorstellen, dass von dieser Technologie nun völlig abweichen.
Ich würde mal behaupten, dass du ChatGPT-4 noch nie verwendet hast. Du kannst ChatGPT eine Karikatur vorsetzen und fragen, was sie bedeuten soll. ChatGPT wird dir (meistens) den Bildinhalt erklären, so wie ein Mensch es täte, der ihn „verstanden“ hat. Der Fehler, den die meisten Leute machen, besteht darin, dass sie glauben „Verständnis“, „Bewusstsein“ und „Kreativität“ könnten nur Menschen besitzen. Dabei weiß bisher kein Mensch, was im menschlichen Gehirn eigentlich dazu führt, dass wir ein Bewusstsein haben. Natürlich ist GPT-4 nicht auf der gleichen Höhe (Komplexität) wie ein menschliches Gehirn, aber es gibt Parallelen zwischen beiden, die zu denken geben. Wenn ich in meine Glaskugel schaue, dann würde ich sagen: Wir werden, wenn wir weiter an den KIs basteln, auch viel mehr über unser Gehirn lernen – und am Ende die vierte Demütigung des Menschen erleben, wenn uns bewusst wird, dass unser Gehirn im Kern auch nur ein statistischer Papagei ist (überspitzt formuliert).
Es mag sein, dass vielleicht auch der Mensch gar nicht wirklich „versteht“ sondern nur wie ein LLM Wahrscheinlichkeiten basierend auf etwas erlernten berechnet. Aber das ist aktuell nicht erwiesen bzw. widersprecht der aktuellen Gehirnforschung.
Lese mal „What Is ChatGPT Doing … and Why Does It Work?“ von Stephen Wolfram. Dort wird sehr gut erklärt wie ein LLM funktioniert. Letztlich ist es nur die Berechnung von dem wahrscheinlichsten Wort nach den vorherigen Wort basierend auf den erlernten Wahrscheinlichkeiten von Millionen von Texten.
Da ist null „Denken“ oder gar „Verstehen“ enthalten.
Oha. Ich finde diese News irgendwie eher positiv und fast schon „ermutigend“. Ich glaube, dass wir viele Probleme auf der Welt nur mit einer „richtigen“ künstlichen Intelligenz (AGI) lösen können. Es mag sicher auch Gefahren geben – aber vom Grundsatz her bin ich optimistisch. Man denke nur an die Möglichkeiten, z.B. in der Medizin (Krebsbekämpfung), Raumfahrt etc. Damit einhergehen muss aber auch ein Umdenken im Bezug auf unser wirtschaftliches System – insbesondere das Thema BGE wird perspektivisch sicher eine Rolle spielen. Und wer weiß, vielleicht leben wie eines Tages in einer für unsere heutigen Vorstellungen utopischen Zukunft wie beispielsweise in Star Trek.
Du findest es also positiv, dass die Seite mit den Dollarzeichen in den Augen gegen die non-profit Seite, inklusive der Warnungen der eigenen Forscher, gewonnen hat.
Aha. Aber passt zur allgemeinen Entwicklung der Menschheit, was kümmert mich schon das morgen.
Wie sie alle vor Skynet Angst haben… einfach mal weniger Schwarzenegger Filme gucken und mehr Dokus zum Thema.
Hilft ungemein.
Du meinst: Die Leute, die für open ai arbeiten, haben ihr Wissen durch Schwarzenegger Filme?
Oha..
I, for one, welcome our new AI overlords.
Klar … und die Erde ist eine Scheibe und kein Mensch wird je fliegen können.
Geschweige denn wird man irgendwann weltweit vernetzt sein und mit Leuten auf der anderen Seite der Erde sprechen können oder gar Videokonferenzen halten können.
Und zum Mond fliegen … undenkbar noch vor knapp 100-150 Jahen.
Wer aufgepasst hat, merkt das Technik immer schneller entwickelt und erforscht wird.
Generative KI um Bilder zu erstellen war vor 5 Jahren auch noch Science Fiction.
Ja, nicht jede Entwicklung schreitet schnell voran.
Aber wenn „KI“ erstmal „selbst lernt“ und Fehler erkennt, könnte es doch schneller gehen als gedacht oder gewünscht.
Wer meint, dass das alles Science Fiction ist (oder noch 20 Jahre bleibt) hat nie Telefonzellen oder Röhrenfernseher mit Antenne gesehen.
Ein offener Umgang, mehr Bildung und Aufklärung würde dem ganzen gut tun. Die Entwicklung ist nicht zu stoppen. Es geht hier um etwas was heutzutage fast jeder anstoßen kann. Deswegen geht es auch im Opensource Bereich voran. OpenAI ist eben nur eine der bekannteren mit minimalem Vorsprung und selbst bei denen weiß man nicht was für Daten genutzt werden. Es braucht auch eine viel bessere Transparenz.
Es wird wieder sehr damit gespielt mit Unwissen sich in Sicherheit zu wiegen. Das klappt nur kurzzeitig.
Ich habe keine Ahnung, ob es den Film noch irgendwo gibt, aber als ich die ersten Meldungen über OpenAI und Chat-GPI gelesen haben musste ich spontan daran denken:
https://de.wikipedia.org/wiki/Colossus_(Film)
Mal sehen, wann die Realität die Fiktion eingeholt hat
Der gleiche Denkfehler wie beim vollautonomen Fahren: man fordert vom vollautonomen Fahrzeug eine an 100 Prozent kommende Sicherheit, Fehlertoleranz und Vorausberechenbarkeit. Welcher melchliche Autofahrer kann diesen anforderungen gerecht werden? Keiner . Ähnlich bei der KI: es wird verlangt ddaß die „Blackbox“ KI transparent arbeitet, angefangen vom verwendeten Input bis hin zum Output . Bei welchem mensch ist das gegeben? Wer kann nachvollziehen wie zwei personen zur gleichen Zeit am gleichen Ort das gleiche wahrnehmen, empfinden und aufgrund welcher bewußten oder nicht bewußten Prozesse sie wie reagieren? Wollen wir KI, angefangen vom autonomen Fahrzeug bis hin zu Modellen wie GPT nutzen werden wir uns mit den gleichen unwägbarkeiten wie bei jedem menschlichen Gegenüber abfinden müssen. Daher muß es , wie bei menschlichen handlungen eben Kontrollinstanzen geben, die im Fall eines unangemessenen handelns eingreifen können. Und es muß geklärt werden, wie und bei wem Verantwortlichkeiten für solche Fehlhandlungen liegen und wer für daraus resultierende Schäden haftet – Fragen die ja gerade im Moment im Zusammenhang mit autonomen Fahrzeugen diskutiert werden. Die menschliche psyche ist eben genau so eine Blackbox wie die KI. Insofern habe ich vor ihr gnau so viel oder wenig Angst wie vor meinen Mitmenschen.