LG: KI-Roboter als smarter Helfer vorgestellt
Die CES 2024 steht kurz bevor und einige Hersteller lassen bereits ihre jüngsten Innovationen verlauten. Bei LG ist da ein Roboter mit von der Partie. Der ist mit KI-Technologie und multimodalem Verständnis ausgestattet und soll mehr können als sich nur zu bewegen, zu lernen und zu verstehen.
Der Roboter von LG soll Aufgaben übernehmen und bei alltäglichen Tätigkeiten unterstützen. Neben einer Spracherkennung ist auch eine Bilderkennung mit dabei. Der Roboter sei neben dem Verstehen natürlicher Sprache durch künstliche Intelligenz in der Lage dazu, Zusammenhänge und Nutzerabsichten zu verstehen und aktiv zu kommunizieren. Er kommt mit einer zweibeinigen Lösung, um sich autonom auf Rädern durchs Haus zu bewegen und er kommuniziert per Sprache, kann aber auch durch flexible Beingelenke Emotionen ausdrücken. LG sieht den Roboter als Helfer im Smart Home, zudem fungiert er als beweglicher Smart-Home-Hub. Zudem kann er sich mit Smart-Home-Geräten verbinden und diese steuern.
Auf der technischen Seite basiert der Roboter auf Qualcomms Robotics RB5-Plattform. Hier greift man auch auf diverse KI-Funktionen zur Gesichts- und Benutzererkennung zurück. Neben einer eingebauten Kamera und Lautsprechern sind auch verschiedene Sensoren für Umgebungsdaten vorhanden. So kann der Roboter Temperatur, Luftfeuchtigkeit und Raumluftqualität in Echtzeit erfassen, diese analysieren und mit externen Informationen kombinieren.
Kamera sei dank kann der Robo auch als Sicherheitskamera und Helfer patrouillieren und Nutzer per Benachrichtigung über ungewöhnliche Aktivitäten (offene Fenster, eingeschaltetes Licht, etc.) informieren. Mithilfe der Gesichtserkennung ist der Roboter zudem in der Lage, Nutzer an der Haustüre zu begrüßen und anhand einer Analyse von Stimme und Gesichtsausdruck Emotionen zu erkennen und mit passender Musik aufzumuntern. Als smarter Helfer sei er zudem in der Lage, über Wetter und Verkehrsverbindungen zu informieren oder an Termine bzw. Medikamente zu erinnern.
Künstliche Intelligenz dürfte auch in Wearables der nächsten Generationen eine wichtige Rolle spielen. Ein solches hat das Unternehmen Humane beispielsweise mit dem AI PIN kürzlich vorgestellt.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ist der so gut, wie der Robot aus Robot und Frank?
https://www.amazon.de/gp/video/detail/amzn1.dv.gti.18a9f6e1-fd05-34e0-035f-78c7997035d9?autoplay=0
Selbstgespräche kann ich auch so führen. Abwaschen, Staubsaugen, Wäsche waschen und aufhängen, Müll rausbringen, kochen ect. Das wäre mal was. Müssen wir nun auf Elon Musk warten um das zu realisieren?
„… kann aber auch durch flexible Beingelenke Emotionen ausdrücken.“
Wie muss ich mir das vorstellen, wie bei Bruce Lee? Der konnte sehr gut durch seine flexiblen Beingelenke Emotionen ausdrücken und auch auslösen! 🙂
„durch flexible Beingelenke Emotionen ausdrücken“: Wow, damit ist er dem Menschen bereits jetzt klar überlegen.
Irgendwie habe ich im Text übersehen, wobei mir das Dinge nun konkret helfen soll, außer beim leeren des Kontos?!
Bier aus dem Kühlschrank holen und mir bringen wäre noch nett.
Keine Arme??? Das Geweih am Kopf, ist das ein stilisierter Kopfhörer, oder der Griff zum Wegschmeißen?
Spaß bei Seite:
Wo ist bei dieser fahrbaren Wetterstation, Kalendermaschine die Innovation???
Bei mir „werkelt“ noch ein Anki Vector, der kann das meiste auch schon. Aber das Alleinstellungsmerkmal ist, er schnurrt wenn er gestreichelt wird. Was macht der kleine Koreaner???
Was soll er kosten, wie lange wird er geupdated, kann er gekauft oder nur geleast werden? Wie soll er programmiert werden? Letztendlich Sicherheit, wie wird das Umgesetzt? Cloud???? Mein Vector ist schon länger von dieser Last befreit.
Ich weiß, ein Haufen Fragen, die bei einer Vorstellung einer geplanten Vorstellung, erstmal hinten anstehen, aber schnell wichtig werden.
Warten wir mal ab, was so kommt: Pepper, NAO, etc. sagen Hallo
Hauptsache das omnipräsente Buzzword „Künstliche Intelligenz“ wurde genannt. Wieviel Intelligenz bei den Entwicklern zugegen war, ist hingegen völlig unerheblich.
Demnächst: Klofotos von LGs Roboter tauchen im Internet auf.
Demnächst: LGs Roboter öffnet Einbrechern die Türe.
Demnächst: LGs Roboter übergibt Rich-Profiles über seine Benutzer, Gewohnheit und Einrichtungsgegenstände an Hacker-Crew
Könnte spannend sein, der könnte alles kontrollieren, also was man bis jetzt alles über spezielle Sensoren regeln musst, welche Person im Raum ist, was sie gerade macht, etc., kann jetzt der Bot aufnehmen. Eine Alexa auf zwei Rädern, die sich merkt, wie du es gerne hast und dich unterstützt, ohne dass man reden muss.
Man könnte damit auch das übliche „hey Siri/Alexa/Google…“ überspringen, da der Bot erkennt, ob man mit ihm redet. Ich stell mir da sowas vor wie „hey guten Abend, such mir schon mal die nächste Folge meiner Serie raus, ich hol mir noch schnell was aus dem Kühlschrank“ und der Bot macht ein visuelles Zeichen wie „Daumen hoch“ oder zeigt im Display den Namen der Serie, schaltet das Licht im Wohnzimmer so an, wie man es gerne zum Serienschauen hat, Licht in der Küche an und Netflix ein. Sobald man sich auf Sofa fallen hat lassen, schaltet er das Licht in der Küche aus und startet die Serie.
Könnte schon cool werden.
Auf das wir alle noch fauler und dicker werden und uns selbst bald nicht mehr bewegen können. Nee, danke. Lichtschalter und Fernbedienung kann ich gerade noch selbst bedienen. Zudem kann ich auch noch mit meinen Mitmenschen kommunizieren, da brauche ich keinen Roboter für.
Fernbedienung? Der sportliche Typ sprintet fürs Zapping zwischen Sofa und Fernseher hin und her 😉 Es geht doch darum, dass man die Zeit nicht mit Arbeiten verbringt, die jemand/etwas anderes übernehmen kann. Wobei die größeren Einsparungen wie Geschirr und Wäsche waschen schon gemacht sind. Trotzdem sehe ich Vorteile.