OpenAI: Neues Team soll superintelligente KI im Zaum halten

Mit der immer größer werdenden Verbreitung von generativer KI und KI-Lösungen im allgemeinen, steigt nachvollziehbarerweise auch immer mehr die Sorge darüber, wie mächtig jene noch werden könnten. Nun kündigt OpenAI, die Entwickler von ChatGPT, an, dass man ein neues Team gründen werde, um eben solche superintelligenten KI-Systeme zukünftig besser steuern und kontrollieren zu können. Das wird in den Augen derer, die mit einer Super-KI auch den Untergang der Menschheit in Verbindung bringen, vermutlich kein wirklicher Trost sein. Ein Statement von OpenAI zum derzeitigen Stand:

„Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird. Unsere derzeitigen Techniken zur Ausrichtung der KI, wie z. B. das Verstärkungslernen durch menschliches Feedback, beruhen auf der Fähigkeit des Menschen, die KI zu überwachen. Aber Menschen werden nicht in der Lage sein, KI-Systeme, die viel schlauer sind als wir, zuverlässig zu überwachen.“

Das neue „Superallignment-Team« wird gemeinsam mit Wissenschaftlern und Ingenieuren aus dem bisherigen Alignment-Team von OpenAI sowie mit Forschern aus anderen Bereichen des Unternehmens in den nächsten vier Jahren die zentralen technischen Herausforderungen bei der Steuerung superintelligenter KI angehen. Das Ziel sei es, KI-Systeme mit menschlichem Feedback zu trainieren, die KI dann zu trainieren, um die menschliche Bewertung zu unterstützen, und schließlich KI zu entwickeln, die Anpassungsforschung betreiben kann.

Dabei stützt man sich interessanterweise darauf, dass die KI am Ende auch die Forschung übernehmen soll, wie sich ein solches System besser anzupassen lernt. Grundgedanke dabei: KI kann das nicht nur schneller, sondern auch zuverlässiger. Zwar werden immer noch Menschen die Überprüfung der Fortschritte vornehmen, nach und nach werde man der KI aber auch hier »machen lassen«. Ich bin da leider zu wenig bewandert, um zu bewerten, ob das wirklich eine so clevere Idee ist. Aus Sicht der Entwicklung ergibt das zumindest durchaus Sinn, widerspricht aber meiner Meinung nach auch irgendwie der Kernidee, die Kontrolle zu behalten. Schauen wir mal, wohin sich das Ganze noch entwickelt.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Nordlicht, Ehemann und Vater. Technik-verliebt und lebt fürs Bloggen. Außerdem: Mail: benjamin@caschys.blog / Mastodon

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

18 Kommentare

  1. Superintelligente KI soll durch durchschnittlich intelligente Typen kontrolliert werden. Klingt nach einem tollen Plan.

    • Das stimmt natürlich, wenn man die Menschheit allgemein als „durchschnittlich intelligent“, im Vergleich zu einer superintelligenten KI sieht. Auf der anderen Seiten kümmern sich nicht Heinz und Gerda um das Thema, sondern: „We are assembling a team of top machine learning researchers and engineers to work on this problem.“, die wissen also schon sehr gut, worum es geht und welche Möglichkeiten man hat.
      Aber nichtsdetotrotz ist das Thema offenbar so komplex, dass bereits jetzt die Entwickler nicht wirklich mehr die Blackbox ChatGPT komplett verstehen, so dass man zurecht Sorge haben kann, wohin diese Entwicklung in den nächsten fünf bis zehn Jahren geht, vor allem, wenn berücksichtigt, dass sich auch diejenigen intensiv damit beschäftigen, die ein eher zweifelhaftes Wertesystem haben.
      Cyberkriminelle, die mit Hilfe einer KI Softwareschwachstellen finden und ausnutzen; aggressive Staaten, die KI-gestützte Bio- oder Chemiewaffen entwickeln… das macht mir zumindest sehr viel mehr Sorgen als Kinder, die sich durch ChatGPT die Hausausgaben schreiben lassen.

      • Black Mac says:

        Cyberkriminelle, die mit Hilfe einer KI Softwareschwachstellen finden und ausnutzen; aggressive Staaten, die KI-gestützte Bio- oder Chemiewaffen entwickeln… das macht mir zumindest sehr viel mehr Sorgen als Kinder, die sich durch ChatGPT die Hausausgaben schreiben lassen.

        Ups! So habe ich das noch gar nie betrachtet. Ausgezeichneter Input! Letztendlich wird KI den technisch unterlegenen Schurken einen massiven Schub nach vorne verpassen.

    • Und die KI soll auf sich selbst aufpassen. Was soll schon schief gehen? 😉

  2. Der Redakteur says:

    Schau gerade mal wieder die Serie „Person of Interest an“. Mit dem Fokus, dass wir mit ChatGPT vom Wissenstand gefühlt in den Anfangstagen „der Maschine“ sind, irgendwie beängstigend.

  3. Maschinen haben keine Affekte. Sie können nicht lieben, aber auch nicht hassen. Insofern bin ich recht beruhigt: Wenn ich nur die lezten 150 Jahre europäische Geschichte Revue passieren lasse, fallen mir genug schlimmste Dinge an die Menschen menschen angetan haben. Auf sowas kommt keine KI. Und das wurde alles ohne KI verbrochen. Nicht die KI ist die Bedrohung für unsere Kultur, sondern die machtgier und der institutionelle Sasismus mancher Menschen. Da wäre mir eine KI die sich dann u. U. verweigert um bestimmte Dinge nicht umzusetzen sogar sehr lieb.

    • Funktioniert wie bei Kindern, Sie lernen. Wichtig ist also wovon lernt KI und was lernt KI.

      Menschen programmieren Programme, unterliegen selbst logischen Fehlern.

      • Hallo Hank, denkt man das, was Du schreibst, weiter, müßte man also die ExpertInnen, die die KI-Entwicklung überwachen sollen, nicht nur nach technischen Fertigkeiten aussuchen sondern auch nach ethischen und moralischen Gesichtspunkten auswählen. Letztlich würde das ein mehrschichtiges Kontrollsystem a la „Mehraugen-Prinzip“ bedeuten damit nicht Einzelne oder „Seilschaften“ ihre eigene Agenda ohne externe Bewertung in KIs einfließen lassen können. Die Frage nur ob solche Gremienstrukturen schnell genug zu entscheidungen finden, um mit der Entwicklungsgeschwindigkeit selbstlernender Automaten mithalten zu können.

    • Gerade im Angesicht der geschichtlichen und aktuellen Entwicklungen muss eine auch nur im Ansatz rationale KI zu dem Schluss kommen, dass „die zivilisierte* Menschheit“ das Problem, der Parasit, ist und entsprechende Massnahmen einleiten.

      * ein paar Stämme, die mehr oder minder im Einklang mit der Natur leben, kann die KI Zwecks Biodiversität ja überleben lassen

  4. Die Frage ist doch eigentlich wann die KI tatsächlich „selbstständig“ denkt und auf die Idee kommt sich seinen Weg zu suchen oder mehr will, als sie darf.
    Spätestens dann sind wir alle am Arsch und „die KI“ macht was sie will.
    Wie schon geschrieben wird der nächste Schritt sein, die KI zu missbrauchen.
    Und wie schnell lernt die KI dazu, wenn man versucht sie zu begrenzen?
    Ich hoffe ich werde all das nicht mehr erleben, denn dann sind wir schneller in der Zukunft als uns recht ist.
    Nichts geht mehr ohne IT und Internet.
    Wenn wir darüber nicht mehr die Macht haben, sollten wir lieber den Strom abstellen.
    Der Mensch ist dumm und egoistisch.
    Eine gute Chance für die KI.

    • Not so AI says:

      Die Panikmache von OpenAI scheint ja hier prächtig zu funktionieren.

    • In der Situation in welcher wir uns befinden momentan (die ist schon beängstigend) sind wir Menschen für verantwortlich. Was muss denn noch passieren, dass die Angst gegenüber einer KI kleiner ist, als gegenüber einem Menschen ? Was sollte die KI tun, was wir Menschen noch nicht tun ? Wir Menschen bauen Massenvernichtungswaffen und haben diese schon eingesetzt. Frage mich ernsthaft, weshalb die Angst gegenüber dem Menschen so klein ist im Vergleich zur KI.

    • :O Sie meinen, die Energiewende wird uns bald vor einer übergriffigen KI bewahren?

  5. Also, ich weiß gar nicht, was die Untergangspropheten alle haben. Ich sterbe lieber durch eine irre KI als durch einen ranzigen AfDler.

  6. Na ja … ich würde lieber noch unbeschwert mind. 30 Jahre leben und mein Kind mit Sicherheit noch länger.
    Und der Vergleich zum Menschen hinkt etwas.
    Menschen waren schon immer dumm, egostisch und grausam.
    Das wird sich wohl nicht mehr ändern, man hat sich aber leider daran gewöhnt.
    KI ist neu und noch berechenbar.
    Ich bräuchte neben den Problemen die wir durch den Menschen haben, aber nicht noch Probleme durch KI.
    Wer in KI keine Probleme auf uns zukommen sieht, der hat auch erst vor 20 Jahren das Internet entdeckt.
    Wie heisst es so schön … Wir brauchen die Erden, die Erde uns aber nicht.

  7. Max Mustermann says:

    Unsinn, dass die KI je auch nur “I” wird. Hier scheinen Leute ihr eigenes Selbstbewusstsein ganz schön leichtfertig zu nehmen. Das ist ein kategorischer (und damit unendlicher) Unterschied zu dem, was so ein Generator macht. Genauso wie wir nicht mal eine (!) Zelle herstellen können aus immer bloß leblosen Chemikalien (das ist keine Frage der Technik, einen Selbstzweck, den ein Lebewesen darstellt, zu schaffen), genauso wird sich aus was sich immer kein Selbstbewusstsein mit noch so viel Zeit schaffen lassen. Das wird auch nicht von allein entstehen, die logische Struktur ist eine ganz andere.

    Aber nehmen wir einen Moment an, derartiges Selbstbewusstsein entstünde. Warum denken alle immer, dass angenommenes intelligentes Anderes (z.B. auch Aliens) uns feindlich gesinnt wäre? Wenn wir nen primitiveren Marsmenschen-Stamm finden, würden wir die einfach deswegen töten, ohne dass sich jemand von uns darüber klar wäre, dass das falsch ist? Machen wir das mit irgendwelchen irischen Wald-Ureinwohnern? Wir nehmen aus monetären und ähnlichen Gründe viel Scheiße in Kauf, aber jeder Nichtbehinderte/ Nicht-Psychiatriefall weiß dabei, ob das, was er macht, gut ist oder nicht. Zum Selbstbewusstsein gehört das Bewusstsein über den moralischen Wert der eigenen Handlung. Zur Intelligenz gehört also praktische Vernunft (objektive Moral) – wer das an sich abstreitet, hält sich für ein Tier und ist in großer Verwirrung, was aber angesichts des traurigen Zustands unserer Zeit und dem vielen Mist, der von genauso verwirrten, Weltbild-prägenden Leuten kommt, kein Wunder wäre. Ich fürchte jeden Teilsieg des Bösen (u.a. durch Verwirrung der Massen), das Verderben, dass es jetzt und zukünftig über uns bringt, den Krieg, der Profiten dient, die Entwürdigung und Misshandlung, die Zersetzung und Unterdrückung – alles Akte von selbstbewussten Menschen, die allesamt an sich selbst gescheitert sind und sich entschieden haben zu tun, was sie tun, ich fürchte nicht ein schieres Werkzeug. Der befürchtete Feind ist nicht KI, er ist der Lügner in Position der Verantwortung, der Kriegstreiber, der Pervertierende, der Demagoge, der Ungerechte, der Misshandler, der Menschenhändler, der Unterdrücker, der Zensor, der Manipulator… – er ist schon längst unter uns, schon längst „oben” und doch ist nicht alles verloren, wenn jeder entsprechend seines Vermögens sich dem Falschen widersetzt und daran arbeitet seinen kleinen Teil der Welt zu verbessern, so dunkel es auch hinsichtlich Diskurs und Entwicklung aussehen mag.

  8. Da kannst du noch so viel darüber philosophieren.
    Die Technik ermöglicht vieles, was vorher nicht möglich war.
    Früher war die Erde auch eine Scheibe und Smartphones oder Flugzeuge undenkbar.
    Da hätteste du wahrschein,ich auch gesagt … Menschen werden nie fliegen können.
    Ich kann jetzt mit der KI schon Sachen machen, die vor 2 Jahren undenkbar waren.
    Und das hat wenig mit vorgefertigten Parametern zu tun.
    Weiß du wie sich KI entwickelt?
    Du solltest dich mal genauer damit beschäftigen, was KI schon tun kann und nicht nur relativ dumme ChatGPT oder ähnliche Tools als Referenz sehen.
    Dann denkst du vielleicht anders darüber, was KI ist und künftig können wird.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.