Diese nützliche Apple Intelligence Camera -Funktion kommt zu iPhone 15 Pro – So funktioniert sie


Apple Visual Intelligence auf einem iPhone.
ZDNET

Die visuelle Intelligenzfähigkeiten von Apple erweitern sich über das iPhone 16 hinaus. Das iPhone 15 Pro wird in Kürze das Sorgerecht für die Funktion erhalten, die Details zu Objekten ausgräbt, die Sie durch die Kamera schnappen.

In a Post veröffentlicht am MittwochJohn Gruber von Waging Fireball sagte, dass die Besitzer von iPhone 15 Pro (und vermutlich iPhone 15 Pro Max) die Eigentümer des iPhone 15 Pro (und vermutlich iPhone 15 Pro Max) visuelle Intelligenz auf ihren Geräten verwenden können.

Das Unternehmen würde nicht genau zeigen, wann die Funktion auf ein “zukünftiges Software -Update” hinweisen würde. Aber Gruber sagte, er glaube, dass es für iOS 18.4 bestimmt ist, was bald in der Beta verfügbar sein sollte und Anfang April leben soll.

Auch: So verwenden Sie visuelle Intelligenz auf einem iPhone 16, um unbekannte Objekte zu identifizieren

Verfügbar auf Alle aktuellen iPhone 16 -Modelle und das bevorstehende iPhone 16eVisual Intelligence ist eine KI-basierte Funktion, mit der Sie Tiere, Pflanzen, Sehenswürdigkeiten, Unternehmen und eine Vielzahl anderer Artikel mit der Kamera Ihres Telefons identifizieren und kennenlernen können. Das Tool ist ein Teil von Apple Intelligence und ist schnell und einfach zu bedienen.

Zielen Sie einfach Ihr Telefon auf den Artikel, den Sie untersuchen möchten. Wenn Sie lange die Kamera-Steuerung auf jedem iPhone 16-Modell drücken, können Sie entweder eine Google-Suche auf dem Objekt ausführen oder Chatgpt-spezifische Fragen dazu stellen. Als Antwort präsentiert die KI Ihnen die angeforderten Details.

Es gibt nur einen Schluckauf. Die vier vorhandenen iPhone 16 -Modelle verwenden die physische Kamera -Steuerung, um visuelle Intelligenz auszulösen. Diese Taste gibt es nicht auf dem iPhone 15 Pro oder auf dem iPhone 16e. Kein Problem. Stattdessen können Benutzer der 15 Pro -Modelle und des 16E visuelle Intelligenz durch Drücken der Aktionstaste auslösen. Diese Schaltfläche ist über den Lautstärkeregler eingebettet und ist so anpassbar, sodass Sie eine Vielzahl von Aktionen einstellen können.

Und laut Gruber gibt es noch mehr. Apple fügt außerdem eine Steuercenter -Taste hinzu, die visuelle Intelligenz startet. Das bedeutet, dass Sie es aktivieren können, indem Sie auf den Bildschirm nach unten wischen und auf die entsprechende Taste tippen. Diese Option ist für die iPhone 15 Pro -Modelle und vermutlich die iPhone 16 -Serie auf dem Weg.

Auch: Ich habe ein iPhone 16 für seine KI -Funktionen gekauft, aber ich habe sie nicht einmal verwendet – hier ist der Grund, warum

Ich begrüße die Nachricht, dass Apple die visuelle Intelligenz erweitert. Ich benutze die Funktion auf meinem iPhone 16 Pro oft und finde sie sehr hilfreich. Abhängig von dem Objekt, das ich scanne, sind manchmal die Informationen, die ich erhalten, zu generisch. Aber ich kann Chatgpt mehr als eine Frage stellen, um die Details, die ich gewünscht habe, auf Null zu stellen.

Wenn die visuelle Intelligenz für das iPhone 15 Pro und das Control Center für iOS 18.4 geplant sind, sollten iOS -Beta -Benutzer die Möglichkeit haben, diese Funktionen ziemlich bald auszuprobieren.





Source link