Google setzt neue Sichtfunktionen für Gemini Live aus
Der AI -Assistent kann jetzt Ihren Telefonbildschirm oder Kamera -Feed “sehen”
Diese Upgrades werden von Project Astra, Googles KI -F & D -Regenschirm, betrieben
Google’s Gemini Live bekommt endlich das Geschenk des Sehvermögens. Der Tech-Riese hat leise angefangen, Funktionen auszurüsten, die Ihr bescheidenes Smartphone für seinen KI-Assistenten in ein allsehendes Auge verwandeln.
Die neuen Fähigkeiten wurden von einem Reddit aufgedeckt Benutzer wer teilte später a Video der Funktionen in Aktion. Mit dem Upgrade können Gemini durch Ihren Bildschirm oder Ihre Kameraobjektiv schauen und verarbeiten, was es sieht. Das Rollout markiert das Debüt des mit Spannung und mit Spannung erwarteten Projekts von Google Astra.
Basierend auf dem Video können Geminis “Eyes” Ihren Bildschirm in Echtzeit über einen “Share-Bildschirm mit Live” -Taste analysieren. Gemini war seit langem in der Lage, statische Screenshots zu verdauen, aber das Update behält einen kontinuierlichen Blick auf Ihrem Bildschirm bei und schaut sich an, was Sie auf Ihrem Telefon für besser oder zum Schlechten sind.
Das andere Tool macht die Kamera -Geminis im Auge Ihres Telefons. Google hat gezeigt, dass die KI Farben und Objekte genau erkennen kann. Ob das Endprodukt dem platonischen Ideal der Demos entspricht, ist noch nicht klar.
Eine kurze Demo von Project Astra (Share Screen mit Live) aus R/Barde
Astra Augen
Die neue Funktion kommt zuerst für Gemini Advanced -Abonnenten an, die 20 US -Dollar pro Monat für den Google One -Plan mit zusätzlicher KI zahlen. Der Rollout ist insbesondere in der Stelle, an der die Funktion erscheint, nach dem von dem Reddit -Benutzer angezeigten Xiaomi -Telefon zu urteilen. Google hatte zuvor angedeutet, dass Pixel- und Galaxy S25 -Besitzer einen schnelleren oder besseren Zugriff auf das Projekt Astra haben würden.
Andere AI-Assistenten mit ähnlichen Sichtwerkzeugen gibt es, aber sie sind hauptsächlich mit Apps von Drittanbietern gebunden Microsoft CopilotAnwesend ChatgptAnwesend Grubenund sogar umarmen das neue Gesicht neu Huggingsnap App. Ein in Android eingebauter KI in Echtzeit-Bildschirm und KI zu haben, würde sicherlich dazu beitragen, dass Benutzer, die an einem KI-Assistenten interessiert sind, zumindest Gemini versuchen.
Das Timing von Google bei der Veröffentlichung der Funktion ist bemerkenswert, da es versucht, unter AI -Assistenten einen Vorsprung zu erzielen. Obwohl Amazonas Hat sein neues “Alexa Plus” -Podalisierung gehandelt, es ist noch nicht eintreffen.
In der Zwischenzeit, ApfelDer verbesserte Siri wurde mehrmals verzögert. Damit hat Google im AI -Assistenten -Rennen vorübergehend, aber sehr real. Gemini macht bei all seinen frühen Schluckauf- und Rebranding -Drama (Rip Bard) jetzt Dinge, die weder Alexa noch Siri momentan übereinstimmen können.
Google hat versprochen, dass das Projekt Astra der “Assistent der nächsten Generation” sein wird, den jeder den ganzen Tag verwenden möchte. Halten Sie also Ihre (und Geminis) Augen offen für neue Funktionen, die in den kommenden Wochen ankommen können.
Sie könnten auch mögen