Google Glass: ab 23. Juni mit Designer-Modellen
Obwohl Google Glass sich weiterhin in der Beta-Phase befindet, kann man bald erste Designer-Gläser für die Datenbrille kaufen. Fashion Designerin Diane von Furstenberg hat sich der Sache angenommen und eine Kollektion geschaffen, die aus 5 Gestellen und 8 verschiedenen Gläsern besteht. Diese sind ab 23. Juni über google.com/glass oder net-a-porter.com zu beziehen. Zur gleichen Zeit wird es auch die Titanium-Kollektion bei mrporter.com geben.
Wenn es jetzt schon Drittanbieter-Zubehör für ein Explorer-Programm gibt, an dem jeder US-Bürger teilnehmen kann, könnte Google die Brille gerne auch aus dem Explorer-Programm entlassen und weltweit anbieten. Ob die neuen Design-Optionen nun besser aussehen als das Original, ist natürlich Geschmackssache. Zumindest hat ein potentieller Nutzer bald eine größere Auswahl, was die Optik angeht.
Da kann man machen was man will, die Teile sehen in der Form einfach nur ulkig aus und nicht wirklich massentauglich.
Im Industriebereich sehe ich aktuell mehr Potential als im Consumerbereich.
Solange die Technik nicht direkt in der Linse verbaut ist, wird das beim Otto-Normalverbraucher auf keine Akzeptanz stoßen, ich rede hier explizit nicht von uns Nerds ;).
Schöner wirds dadurch jetzt auch nicht gerade.
Als ob man das normale Glass an ne Brille drangeklebt hätte.
Ich denke damit das wirklich Anklang findet, müsste die Kamera im natürlichen Rahmen der Brille verschwinden und der Screen im oberen Teil des Brillenglases selbst.
Der Klotz hinten am Bügel müsste auch verschwinden.
So sieht das ganze immer noch nach Freakshow aus.
Was nicht heißen soll, dass es wirklich angenehmer wäre, sich mit jemandem zu unterhalten, der oben beschriebene Vorstellung der Brille trägt.
Ist das Explorer Program noch nicht genug gemolken? Kaufen wohl noch genug die Brille für 1500$. So eilig hats Google ja nicht mit Geld verdienen, da kann man ruhig laaaaangsam mit den Preisen runtergehen.
Ich würde es lieber sehen, wenn ein Brillenhersteller wie Ray Ban sich der Sache annehmen würde.
@Markus
Ist scheinbar schon der Fall:
http://stadt-bremerhaven.de/google-glass-luxottica-soll-die-brille-cool-machen/
Ich kauf mir so eine Brille erst, wenn ich sie nicht per Sprache sondern unauffällig mit dem Auge steuern kann. So teuer wird doch ein Sensor nicht sein, der die Bewegungen der Pupille erkennen kann…
@ LinuxMcBook
das stelle ich mir im Alltag extrem stören vor. Die Pupille ist nämlich permanent in Bewegung und würde dann ständig ungewollte Aktionen im Google Glass auslösen.
Heute finden wir Google Glass noch lächerlich, 2007 fanden genug Leute das iPhone lächerlich weil man mit Wischen wie ein Bekloppter aussieht. Gebt dem Ganzen noch 5 Jahre… 😉
@PolytroX
Das ist mir bewusst, deswegen sollten die Pupillen natürlich nur dann berücksichtigt werden, wenn „Schaltelemente“ eingeblendet werden. Außerdem sollte es einem Algorithmus möglich sein, willkürliche von unwillkürlichen Augenbewegungen zu unterscheiden.
Eye-Tracking ist nun auch nichts, was Google neu erfinden müsste. Hawking steuert AFAIK damit seinen Sprackcomputer.