Bing Chat: Microsoft entfesselt den Zugriff weiter

Der in Bing integrierte AI-Assistent dürfte dafür gesorgt haben, dass ChatGPT etwas mehr Ruhe bekommt und dass Bing jetzt überhaupt mehr als eine Handvoll Anwender nutzen. Kürzlich berichteten wir darüber, dass Microsoft den AI-Assistenten beschneiden musste, da es teilweise krude Antworten und ein Drehen im Kreis gab. Zwischenzeitlich erhöhte Microsoft das Limit wieder und man fügte drei unterschiedliche Unterhaltungsstile hinzu. Ab sofort hat Microsoft dem AI-Assistenten mehr „Leine“ gegeben, sodass man auf 10 Chats pro Session und 120 totale Anfragen pro Tag kommt.

Apple 2023 Mac Mini Desktopcomputer mit M2 Chip, 8 GB RAM, 256 GB SSD Speicher, Gigabit Ethernet. Funktioniert mit...
  • MIT DER POWER DES M2 – Mit dem Chip der nächsten Generation kannst du in weniger Zeit mehr schaffen....

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

5 Kommentare

  1. Letztens ausprobiert. Klappt super vor allem bei neuen Themen von dem man so gar keine Ahnung hat.
    Die eher „genau antworten“ finde ich passend. Da wird weniger geschaufelt. Quellenangabe ist auch super hilfreich. Hat mir sachlich 15 min + recherché erspart

    Kann verstehen dass Google Panik hat.

    • Verständlich, dass es scheinbar besser funktioniert bei neuen Themen. Da fällt das Halluzinieren nicht so schnell auf. „Mount stupid“ und so …. Eine Art reverse Dunning Kruger Effekt.

  2. Martin Fischer says:

    Was passiert denn, wenn in Zukunft die AI andere Sachen behauptet als das herrschende Narrativ? Und wenn sie das vielleicht nicht aus Dummheit tut, sondern weil sie es besser weiß? Dann besteht die AI ganz schnell aus einem großen Packen menschengemachter Vorschriften und irgendwann weiss niemand mehr was von der AI selbst stammt und welche Lügen man ihr vorgegeben hat.

    • gewappnet says:

      Hier geht es ja um die Funktion in Bing und da gibt es für alle Aussagen der KI jeweils Quellenangaben.

    • Die AI „weiss“ nichts, sie kann nicht zwischen „gut“ und „böse“ unterscheiden, sie keine keine „herrschenden Narrative“, sie berechnet nur die Wahrscheinlichkeiten, welches Wort auf ein anderes folgt.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.