Az Apple Google Lens-szerű vizuális intelligenciája az iPhone 15 Pro-ra gurul

Az Apple úgy van beállítva, hogy kibővítse vizuális intelligencia funkcióját az iPhone 15 Pro és az iPhone 15 Pro Max -ra a közelgő iOS 18.4 frissítéssel. Korábban az iPhone 16 felállásra kizárólagos, ez az AI-alapú eszköz hasonlóan működik a Google Lenshez, lehetővé téve a felhasználók számára, hogy a kamerájukon keresztül elemezzék az objektumokat, a szöveget és a jeleneteket a valós idejű információkhoz.

A 9to5Mac szerint az Apple korábban megerősítette a Daring Fireball -nak, hogy a szolgáltatás az iPhone 15 Pro modellekhez érkezik, de nem határozta meg, mikor. Most, az iOS 18.4-rel a Beta fejlesztőjében, egyértelmű, hogy a bevezetés áprilisra van beállítva, megtiltva a last-minute változásokat.

Az eredetileg az iPhone 16 felépítéséhez 2024 szeptemberében a Visual Intelligence a Kamera vezérlőgombján keresztül elérhető volt. Mivel azonban az iPhone 15 Pro és a Pro Max hiányzik ez a gomb, a felhasználók ehelyett a Műveletgomb vagy a Vezérlőközpont segítségével aktiválják a funkciót - hasonlóan ahhoz, hogy a funkcionalitás hogyan működik az újonnan indított iPhone 16E -n.

Lásd még:Hogyan lehet vizuális intelligenciát szerezni az iPhone 15 Pro modelleken

A legfrissebb iOS 18.4 BETA fejlesztő is kiterjeszti a Művelet gombot és a Vizuális Intelligencia Vezérlőközpontját a teljes iPhone 16 felállásra, így a felhasználók többféle módszert adnak a szolgáltatás aktiválásához.

Ez a frissítés jelöli az Apple folyamatos befektetését az AI-alapú funkcionalitásba az iOS-en belül, így az iPhone felhasználók számára intuitívabb módon léphet fel a környezetükkel való interakcióhoz. Az iOS 18.4. Áprilisban várható hivatalos bevezetésével az iPhone 15 Pro tulajdonosai hamarosan hozzáférést kapnak ehhez a hatalmas szolgáltatáshoz anélkül, hogy újabb eszközre kellene frissíteniük.

Forrás:9to5Mac