Umfrage Mai 2024: Nutzt du KI-Assistenten?
Derzeit werben etliche Anbieter mit ihren Tools für generative KI. Vor allem Microsoft ist da mit seinem Copiloten, der sogar eine eigene Taste auf Windows-Tastaturen erhalten hat, ganz vorne mit dabei. Aber viele Leser haben sicherlich auch schon direkt mit OpenAIs Chat-GPT herumgespielt. Um das etwas genauer zu ergründen, gibt es jetzt unsere neue, monatliche Umfrage: Nutzt du KI-Assistenten?
Gemeint sind damit ausdrücklich nicht „ältere“ digitale Assistenten wie Amazon Alexa, Apple Siri oder der Google Assistant, sondern generative KI-Tools wie eben der Microsoft Copilot, Chat-GPT oder auch Bilderstellungs-Werkzeuge wie Midjourney oder Dall-E. Natürlich zählt es auch, wenn ihr die eingebundenen KI-Werkzeuge in z. B. dem Browser Opera (Aria), in der Bildbearbeitungs-Suite von Adobe oder eben in Microsoft Office beansprucht. Auch das Produktivitäts-Tool Raycast bietet ja bereits eine integrierte KI-Lösung mit recht vielen Möglichkeiten.
Ich gehe jetzt einfach mal davon aus, dass das Gros der Leser entweder regelmäßig mit solchen Lösungen arbeitet oder sie zumindest schon einmal für sich ausprobiert hat. Allerdings lese ich in den Kommentaren unter entsprechenden Artikeln auch regelmäßig von einer gewissen Resignation, sodass die Antworten aus der Umfrage da hoffentlich etwas genaueren Aufschluss geben.
Generative KI: Wirklich so hilfreich wie beworben?
Ich kann das durchaus nachvollziehen: Für Textkorrekturen, Zusammenfassungen oder einfache Umformulierungen finde ich aktuelle Tools auf Basis von generativer KI z. B. recht hilfreich, gerade zu komplexeren Themen und Anfragen habe ich aber auch schon Falschinformationen bemerkt. In Sachen Bilderstellung finde ich die Ergebnisse wiederum oft beeindruckend, allerdings sind klare Makel immer noch leicht zu erkennen.
Dazu kommen ja auch moralische Fragen, da man aktuell bedauerlicherweise in der Regel nicht davon ausgehen kann, dass die Ersteller der Trainingsdaten vernünftig entlohnt worden bzw. ihre Urheberrechte geachtet worden sind. Doch das ist ein vielschichtiges Thema, das ich hier nicht zu sehr vertiefen möchte. Kommen wir daher zur konkreten Monats-Umfrage für den Mai 2024.
Nutzt du KI-Assistenten?
- Ja, aber selten. (28%, 887 Votes)
- Nein, keinerlei Interesse. (27%, 872 Votes)
- Ja, regelmäßig. (27%, 855 Votes)
- Nein, aber sie interessieren mich. (17%, 547 Votes)
- Weiß ich gar nicht genau. (2%, 62 Votes)
Total Voters: 3.223
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ja, ich nutze ChatGPT für die Dokumentation von Source Code oder das Erstellen von Scripts. Man sollte sich aber niemals blind auf die Ergebnisse verlassen. Insgesamt überwiegt die Zeitersparnis und bekommt mehr erledigt.
Das ist eine schwieriege Frage, ich hätte das anders formuliert oder zumindest eine Frage als „Nutzt Du BEWUSST KI-Assistenten“. Ich nutze regelmäßig deepL ist das jetzt KI oder nicht?
Let me google this für you … ;-)
In der Suchmaschine der Wahl „Ist DeepL eine KI?“ eingeben und schon hat man das Ergebnis.
Ja, aber selten.
Ich nutze die Bilderstellungsmöglichkeiten gelegentlich. Allerdings sind die Ergebnisse teilweise mehr als schlecht, jedenfalls bei Nutzung der kostenlosen Angebote.
Welchen Dienst nutzt Du dafür?
Weder im firefox, noch im Chrome ist eine Abstimmung möglich und auch ein Ergebnisbalken ist nicht sichtbar.
Danke fürs Korrigieren.
Wolf
Hat mich ebenfalls irritiert, die Abstimmung ist rechts am Rand, nicht unter dem Artikel.
Ich nutze KI-Assistenten fast täglich. Aber ehrlich gesagt treiben sie mich noch allzu oft in den Wahnsinn. Zum Beispiel, wenn sie über Suchmaschinen einfach erreichbare Informationen nicht kennen oder partout nicht auf einfache Anforderungen reagieren. Zum Beispiel habe ich kürzlich Copilot darum gebeten, mir einen Plan für vier Tage zu erstellen. Und Copilot hat immer nur zwei Tage ausgespuckt, egal was ich auch nach dem ersten Output versucht habe. Und wenn man dann direkt fragt, ob die KI denn defekt sei, bricht diese das Gespräch ab. Man könnte fast vermuten, dahinter sitze ein Fremdsprachler, der plötzlich beleidigt ist. 😉
Schwer zu sagen – bewusst nutze ich das bereits erwählte DeepL schon ab und an, um Ideen für eine Übersetzung zu finden, die ich dann weiter bearbeite. Wieviel man mittlerweile unbewusst untergejubelt kriegt in Form von schlechter werdenden Suchtools etc. kann ich nicht abschätzen.
Die offen als KI beworbenen Alleskönner/Assistenten machten aber in allen meinen Versuchen den Eindruck, als würden sie nur das allgemeine Geschwafel des Internets zusammentragen. Viel sinnentleertes SEO, Stereotypen, Selbstüberschätzung, das passt auf meinen Eindruck von großen Teilen der Techbranche, weswegen ich da momentan wenig Hoffnung auf für mich tatsächlich nutzbare Applikationen habe. Auch die Integration in eigentlich gute Tools wie Notion oder Feedly nervt mich extrem. Vielleicht ist das ja die eigentliche Verkaufsstrategie – den Leuten so lange mit schlechter KI auf den Sack gehen, bis sie bezahlen, um davon befreit zu werden?
Ich nutze ChatGPT sehr sehr selten, da ich den Mehrwert bisher noch nicht erkennen konnte. Probiert habe ich folgende Sachen:
1. Vergleich von zwei öffentlich zugänglichen PDF-Dateien (Regelwerke der gesetzlichen Unfallversicherung) um eine kurzen Zusammenfassung der Unterschiede zu erhalten. Diese Zusammenfassung war grundsätzlich falsch.
2. Erstellung eines Java Scripts (ohne großartige eigene Programmierkenntnisse) für ein selbsterstelltes PDF-Formular. Das Skript sieht gut und für mich als Java-Script-Laien in Ordnung aus, aber leider funktioniert die Umsetzung in Adobe Pro 2020 nicht. Die Fehlersuche in ChatGPT hat auch kein Ergebnis gebracht.
3. Schreiben von Grußkarten. Allerdings nicht um diese komplett zu übernehmen, sondern um Ideen zu nutzen.
Was Du hier von einem GPT möchtest ist „Arbeit“. Das ist aber nicht direkt seine Kernkompetenz. GPTs sind in der Lage, Antworten zu geben, die der Form nach sehr gut nach Antworten klingen. Dass es inhaltlich tatsächlich Antworten sind ist die Magie und ob diese Antworten wahr sind ist Zufall. Man kann zwar durch den geschickten Einsatz mehrerer Anfragen mit einer gewissen Wahrscheinlichkeit die Fehlerrate reduzieren, aber dass ChatGPT das aktuell nicht „ab Werk“ kann wundert mich nicht.
Ich würde es mal etwa so versuchen:
* Erstelle eine Zusammenfassung des ersten PDFs
* Neuer Prompt: Erstelle eine Zusammenfassung des zweiten PDFs
* Neuer Prompt: Vergleich die beiden folgenden Texte (dann beide Zusammenfassungen einfügen)
* Neuer Prompt: Du bist Dozent an einer Hochschule. Nachfolgend die Originalfassung einer früheren Version des Regelwerks der gesetzlichen Unfallversicherung {hier einfügen}. Nachfolgend die Originalfassung der aktuellen Fassung des gleichen Regelwerks {hier einfügen}. Einer deiner Studenten hat als Hausarbeit die folgenden Änderungen herausgearbeitet {hier einfügen}. Schreibe eine detaillierte Kritik zur Hausarbeit und erkläre, an welchen Stellen die Hausarbeit nicht zutrifft.
Das sind 4 unterschiedlich Prompts, bewusst kein geteiltes Wissen. Wie gut das klappt hängt von Länge und Komplexität der Texte ab, und vom konkreten Wortlaut Deiner Prompt-Formulierung.
Und das ist dann genau der Aspekt, den OpenAI eben nicht in sein Produkt eingebaut hat: Das erhöht natürlich en Rechenaufwand pro zu verrichtende Aufgabe um ein Vielfaches.
Bing Chat und Gemini nutze ich in unregelmäßigen Abständen, aber oft kommt da Murks raus und muss es dann selber machen
Anschreiben mache ich nur noch per ChatGPT, da ausreichend gut und ich es hasse es selber zu machen.
DeepL benutze ich seit Jahren täglich, das funktioniert auch sehr gut. ChatGPT hin und wieder und Microsofts Copilot auf der Arbeit. Allerdings ist der Frustfaktor schon sehr sehr hoch, wenn man ständig nicht das gewünschte Ergebnis oder auch schlicht falsche Antworten bekommt. Bilder erstellen klappt meist gar nicht, das ist bei mir immer meilenweit vom gewünschten Ergebnis entfernt. Zu Wissensfragen lasse ich mir Fundstellen ausgeben, weil Copilot wirklich bei jedem zweiten Versuch falschen Blödsinn ausspuckt. Emails zusammenfassen, besonders solche die man erst nach der zehnten Weiterleitung bekommt, funktioniert dagegen schon ganz gut.
Was mich absolut nervt sind die Nassbirnen, die meinen ihre Emails oder andere Texte mit KI „aufhübschen“ zu müssen. Ja, sieht auf den ersten Blick oft besser aus, allerdings werden da so viel „Nullinformation“ und leere Worthülsen eingefügt, dass man beim Lesen ständig das Gefühl „komm mal auf den Punkt, Junge!!!“ hat. Oder auch das textuelle Äquivalent zum Uncanny Valley, weil dem Geschriebenen jegliche persönliche Note fehlt.
Im Kollegenkreis sehen wir uns momentan eher im Tal der Enttäuschungen des Hype-Cycles, weil man zwar manchmal sinnvolle Ergebnisse bekommt, leider aber zu oft nicht. Aktuell würde ich jedenfalls kein Geld dafür bezahlen, ausgenommen so Übersetzer wie DeepL.
Ja, aktuell blasen viele Leute ihre E-Mails mit ChatGPT auf und erhöhen die zu übertragende Datenmenge.
Allerdings ist es doch nur eine Frage der Zeit, bis Outlook per Knopfdruck diesen unnützen Fülltext von einer KI wieder entfernen lässt. Beim Sender Lauflängeninflation, beim Empfänger Lauflngendeflation.
Regelmäßig, um Texte zu korrigieren, Anregungen zu holen, Codeschnipsel/Scripte zu machen (könnte ich sonst nicht), zu übersetzen oder Texte zusammen zu fassen. Wenn man bei ChatGPT ein paar Grundsätze beim Prompt beachtet, klappt das auch schon sehr gut. Selbst bei deskriptiven Wissensfragen kommen ordentliche Ergebnisse heraus — man muss natürlich immer im Hinterkopf behalten, wie diese Modelle grob funktionieren, dass es keine Datenbanken sind, der Internet-Zugriff rudimentär ist und die Stochastik halt immer die Empirie schlägt, wenn wahrscheinlicher. Englisch ist außerdem besser als Deutsch. Also Prompts notfalls mit deepL übersetzen lassen.
Jedenfalls, alles in allem, die sehr negativen Äußerungen hier kann ich mir in vielen Fällen nur mit Inkompetenz und grundsätzlichem Unwissen beim Umgang mit so einem Modell erklären. Klar, der Hype ist groß und dem werden die LLMs nicht gerecht, das macht sie aber keineswegs schlecht.
Ich nutze ab und zu chatgpt für die Arbeit und Bildgenerierungstools für den Spaß am ausprobieren.
Ersteres enttäuscht mich nach kurzer Zeit immer wieder. Das liegt aber vor allem daran, dass es halt komplexe Fragen für die Arbeit sind.
Zweiteres finde ich interessant, allerdings sind die Ladezeiten immer sehr lang und irgendwie kommt meist etwas anderes heraus als ich beschreibe.
ich nutze Copilot regelmäßig für Uni zur Nachbereitung oder generell, wenn mir etwas nicht klar ist. Teilweise funktioniert es richtig gut und der Inhalt ist korrekt, manchmal ist es aber auch komplett daneben. Insgesamt aber eine gute Unterstützung, sofern man die Ergebnisse auch selbst nochmal überprüft.
Zumindest beim Fold5 mit OneUi 6.1 circle to search regelmäßig und Google Gemini gelegentlich. Zählt der Roborock S8 MaxV Ultra mit AI Reinigungsplan und AI Hinderniserkennung auch?
Der Hype hat sich doch stark gelegt. Als eine App von vielen gelegentlich. Aber keine KI ist für mich ein alltäglicher Begleiter geworden.
Das hier bereits beschrieben kann ich auch so bestätigen. Ich nutze manchmal Microsofts Copilot aus Interesse, aber bin dann schnell ernüchtert und habe keine Lust mehr. Ich denke, die Tools sind momentan nur sehr eingeschränkt sinnvoll nutzbar.
Beispiel, ich wollte mir eine Tabelle ALLER iPads mit displaygröße und noch was anderem erzeugen lassen. Erstellt wurde aber immer nur eine Auswahl, keine komplette Liste. Bis ich die dämliche KI dazu gebracht hatte, alle aufzulisten, hat lange gedauert. Was ist an „Liste aller iPads“ so schwer zu verstehen?
Ich glaube der Weg ist, dass KI an vielen Stellen im Hintergrund zum Einsatz kommt. Das mit den digitalen Assistenten versuche ich in ein paar Jahren noch mal 😀
Bis die wirklich so intelligent sind, dass ich mich mit denen weiter auseinander setzen möchte, wird es noch dauern. Ich hasse einfach diese dämlichen, viel zu selbstbewussten Antworten, die nicht zur Frage passen.
Ich benutze Apps wie „Seeing Eye“ und ähnliche in die KI-Werkzeuge zur Objekt- und Bilderkennung oder zur Verbesserung von OCR eingebunden wurden. Schon fastzinierend wenn mir, der ich seit dem 18. Lebensjahr nichts mehr sehen kann, beschrieben wird wie mein kleiner vorgarten aussieht oder welche Autos mit welchen Farben auf unserm Parkplatz stehen. Ich hoffe das wird mal alltagstauglich und z. B. mit einer Art Google oder Apple Glasses in etwas sehr hilfreiches münden. Und das sicher weit früher als auf Ideen wie „Neuralink“ basierende Vorstellungen.
Ja…. ChatGPT, Gemini und Claude im privaten Umwelt. Copilot und unseren eigenen Assistenten auf OpenAI API Basis in der Firma. Die Zeitersparnis ist massiv.
ich nutze DeepL Write und da vor allem die Textkorrektur
Hab Adobe Express getestet, ist bei mir durchgefallen.
Einfache Änderungen an einem bestehenden Bild hat es nicht auf die Reihe gebracht. Zig Anläufe.
Da hätte ich als Bildbearbeitungslaie bessere Ergebnisse zustande bekommen.
Heute wird vieles mit dem Stempel „AI“ versehen, was sich bislang ohne „AI“ nicht verkauft hat.
Da bei mir eh ein neuer PC anstand habe ich mir vor ca. einem Monat sogar extra einen etwas stärkeren PC gekauft als ich sonst brauchen würde um damit KI nutzen zu können. Ich empfehle meinen Schülern regelmäßig ChatGPT und Co als privaten Tutor zu nutzen. Aber so, wie eben jedes andere Tool auch: Mit Verstand. Taschenrechner spuckt auch Müll aus, wenn man nicht weiß, was man eingeben muss. KI ist einfach noch zu dumm um vollwertig einen Lehrer zu ersetzen. Daher: Als erste Anlaufstelle sehr nützlich; Ergebnisse aber bitte immer gegenprüfen oder mehrmals ähnliche Fragen in vielleicht sogar unterschiedliche KI-Programme eingeben um zu schauen, was jeweils anderes rauskommt.
Beruflich nutze ich KI aber kaum. Mehr als hier und da ne Frage eingeben bringt mir da nicht viel, weil ich alles was die können in meinem Fachbereich besser und schneller selber kann. Taschenrechner sind da tatsächlich zuverlässigere Hilfsmittel als Gemini oder ChatGPT.
Privat hingegen nutze ich Chatbots regelmäßig. Als Hobby-Schreiberling kann man so eigene Texte aufpeppen oder Ideen einbringen, auf die man selber nie gekommen wäre. Das war auch mein Hauptanwendungszweck für lokale KI, daher hat sich der teure PC meiner Ansicht nach schon gelohnt. Bei Bildgenerierung bin ich zwiegespalten. Hab ne Weile versucht eine Art interaktive Visual Novel/Comic zu erstellen. Also meine Geschichte schreiben und stable Diffusion spuckt mir dann alle paar Sätze nen passendes Bild aus. Zu 99% kam bei mir da Humbug oder Sachen raus, die kein bisschen passten. Und selbst die guten 1% waren eher nur Ok. Online sind die Bildtools deutlich mächtiger als Lokal. Kosten aber und brauchen ewig zum generieren.
Meinen Traum KI irgendwann für ne Pen&Paper Runde als Gamemaster antreten zu lassen hab ich für’s erste aufgegeben. Bisherige Versuche waren eher enttäuschend, selbst bei Online-Varianten. Regelwerke werden oft falsch oder sehr kreativ ausgelegt, Situationen vergessen oder verwandeln sich teils von Prompt zu Prompt teils drastisch. Auch mit mehr als einer Figur gleichzeitig haben die KI’s oft noch Probleme. Die (egal ob lokal oder online) bringen es teils durcheinander, was die vom Bot gesteuerte Figur macht und was die von mir gesteuerte macht. Wenn man dann über eine Heldengruppe von 4 Leuten schreibt, dann darf man schon froh sein, wenn sich die Namen und Anzahl der Figuren nicht plötzlich ändern. Und das noch weit innerhalb des Token-Kontexts.
Mein Fazit: Zum plänkelhaftem Rumspielen oder als Ideenhilfe sehr nützlich, man muss aber so ziemlich jeden Text der KI immer noch manuell nachbearbeiten um halbwegs konsistent zu sein. Von einem vollwertigen Assistenten wie Copilot oder auch hu.ma.ne’s AI Pin beworben werden sind wir aber leider noch weit entfernt.
@ESone
Welche KI-Programme setzt Du lokal auf Deinem PC ein,
welche technische Ausstattung hat Dein PC für die abgefragte Leistung?
Wie „hoch“ würdest Du die Leistung (wohl generative KI) der lokalen Installation im Vergleich zu Onlineversion einstufen?
Der wichtige Punkt den Du dabei vermitteln musst: ChatGPT hat keine Faktenkompetenz. Weder „weiß“ ChatGPT zwangsläufig die richtigen Antworten, noch kann ChatGPT richtig rechnen.
Beispiel:
* Erkläre Deinen Schülern, wozu man „Lorem Ipsum“ verwendet. Das sind Texte die so aussehen sollen als wären es echte Texte, in Bezug auf Wortlänge und Buchstabenhäufigkeit.
* Such einen Lorem-Ipsum-Generator der deutsche Texte erzeugt, lass Dir 200 Wörter erzeugen.
* Aufgabe an ChatGPT: Wie viele Buchstaben hat das?
Ergebnis: Große Augen.
* Kurze Diskussion über den Zusammenhang zwischen Leerzeichen und Wörtern. im naiven Ansatz ein Leerzeichen weniger als Wörter, falls mal Satzteile mit Trennstrichen statt Komma oder Punkten getrennt sind vielleicht ein paar mehr. Beim Lorem-Ipsum-Text würde man, weil der „Satzbau“ trivial ist, trotzdem ein Leerzeichen weniger als Wörter erwarten.
* Ausprobieren mit ChatGPT
Ergebnis: Große Augen
* ChatGPT mit der obigen Begründung belehren
Ergebnis: Große Augen
Selbst eine Gruppe 11- bis 14-jähriger mit der ich mich vor einer Woche genau darüber unterhalten hab hat nach ein Bisschen Diskussion ohne Hilfestellung durch mich selbst die Antwort „ein Leerzeichen weniger als Wörter“ erarbeitet und war sich sicher: Das ist ja eigentlich einfach.
ChatGPT hat sich bei uns bei der Anzahl der Wörter mit 160 um 40 nach unten verzählt und bei der Anzahl der Leerzeichen mit 320 um 120 nach oben. Bei der Erklärung „ein Leerzeichen weniger als Wörter“ hat es sich dann auf 319 korrigiert (nicht auf 159, wie man das vielleicht erwarten könnte): Es hat also offensichtlich den Unterschied zwischen Wörter und Leerzeichen nicht verstanden sondern nur „eines weniger“ gemacht, da zwar dann richtig gerechnet, aber eben mit einerseits einer erfundenen Zahl und andererseits dann auch noch mit der falschen von beiden.
Ich habe Ja geantwortet, da ich öfters DeepL benutze, allerdings nur als Grundlage für Übersetzungen und nie ohne händische Verfeinerungen und Präzisierungen. Habt ihr den bei eurer Fragestellung vergessen?