Med en myriade av Gemini-drevne AI-funksjoner, er Pixel 9 praktisk talt en «Gemini-telefon» som MKBHD nevner i sin anmeldelse. Mens Google presser på for mer AI på enheten, krever de fleste av disse AI-funksjonene fortsatt en internettforbindelse. Så når du trykker på den knappen for litt AI-magi, sendes data til og fra Googles skyservere der de tunge løftene skjer. Det er som å outsource AI-oppgavene i stedet for kun å stole på Tensor G4-brikken.
Så trenger Pixel 9 AI-funksjoner en internettforbindelse? Generelt, ja. Men gjør alle? Nei. Jeg skal forklare.
Pixel AI-funksjoner som krever at du er online
- Gemini AI Assistant, Pixel Studio, Video Boost, Night Sight Video, Magic Editor
For det første krever Gemini AI Assistant en internettforbindelse for å fungere. Ja, i motsetning til Apples Siri eller til og med Google Assistant, hvor du kan gjøre mange ting offline, vil verken Gemini Assistant eller Gemini Live-funksjonen fungere uten internettforbindelse.
Jeg håper Google til slutt vil tillate det å gjøre minst et par ting offline, som å åpne apper, slå på lommelykten eller bytte telefoninnstillinger, men det er ikke mulig for øyeblikket.
Med Pixel 9 introduserte Google en ny Pixel Studio-app som bruker AI til å lage bilder fra tekstmeldinger. Mens den bruker prosessering på enheten, er den også avhengig av Googles skybaserte Imagen 3 for å generere bilder, og krever dermed en internettforbindelse. Appen fungerer rett og slett ikke uten den.
Apple AIs bildegenerator vil derimot være helt på enheten. Det gjør det mye raskere og personvernvennlig sammenlignet med Googles implementering.
Skulle du velge å bruke den nye Video Boost-funksjonen for å fikse skjelvende, kornete og ellers ufullkomne videoer, vil det kreve at videoen lastes opp til Google Cloud og behandles, først etter at du kan se den forsterkede videoen. Det bruker mye data og tar litt tid.
Night Sight Video på Pixel Pro-telefoner drives av den samme funksjonen, du må være online for det også.
Igjen, jeg hater å fortelle deg det, men Magic Editor i Google Photos krever en internettforbindelse for å fungere. Så hver gang du vil redigere bildene dine, vil de gjøre et håndtrykk med Google Cloud, noe som også betyr at det ikke vil være umiddelbare redigeringer.
Pixel 9 AI-funksjoner som ikke trenger skyen
- Pixel Screenshots, Zoom Enhancer, Add Me, Call Notes, Magic Eraser, Audio Magic Eraser
Pixel 9 kommer med en splitter ny Screenshots-app som skanner alle skjermbildene dine, forstår hva som er i dem og gjør det enkelt å organisere og hente frem informasjon. For eksempel tok jeg her om dagen et skjermbilde av Geekbench-benchmarks jeg kjørte på Pixel 9, og den hentet og forberedte en lapp med alle poengsummene. Denne funksjonen fungerer fullstendig på enheten.
Utover skjermbildebehandling, har Pixel 9 flere andre imponerende AI-funksjoner på enheten som Magic Eraser som lar deg fjerne uønskede objekter eller personer fra bilder, sømløst fylle ut plassen. Den populære Add Me-funksjonen trenger den heller ikke av åpenbare grunner.
Den nye Zoom Enhancer-funksjonen kan også fungere offline, og forbedre detaljer i bilder når du klyper for å zoome inn. Tenk på den som Pixels Super Res Zoom, men den fungerer etter at du har tatt bildet. Audio Magic Eraser, som fjerner uønsket støy fra videoer, er en annen eksisterende funksjon på enheten.
Til slutt, med Call Notes, kan Pixel 9 nå automatisk ta opp alle anrop på enheten din og deretter vise deg en transkripsjon og et sammendrag av samtalen sekunder etter at du avslutter samtalen. Dette fungerer helt på enheten, og ingen data forlater enheten.
On-Device vs Cloud Processing: Hvorfor er det viktig?
- På enheten: Raskere, private, begrensede muligheter.
- Cloud: Tregere, mindre privat, men mye kraftigere.
Med prosessering på enheten gjøres all AI-beregning og prosessering i enheten. Ingen data forlater telefonen. Siden det ikke er behov for dataoverføring til og fra skyen, går oppgaver som å generere eller redigere bilder/videoer ved hjelp av AI mye raskere. Den er også mer personvernvennlig og fungerer overalt, selv når du ikke har Wi-Fi eller mobildata.
Imidlertid krever AI mye regnekraft, og kvaliteten på utdataene er begrenset av hvor kraftig enheten er. Dette er grunnen til at den nye Apple Intelligence bare er tilgjengelig på iPhone 15 Pros, drevet av A17 Pro-brikkesettet, og ikke på lavere-end-modeller.
Skybehandling betyr at du praktisk talt har tilgang til ubegrenset beregningskraft. Ressurser kan enkelt skaleres opp ved behov, og AI-modeller kan oppdateres og forbedres oftere uten behov for oppdateringer på enhetsnivå.
Dataene dine blir imidlertid sendt til skyen for behandling og deretter lastet ned igjen etterpå. Dette kan være bekymringsfullt for dine private data. Det vil også forbruke mye av internettbåndbredden din og vil fungere utrolig sakte når du ikke har høyhastighetstilkobling. Funksjonene er rett og slett ubrukelige offline.
Hvorfor koble til Internett tross alt?
Som tilfellet var med Pixel 8 og 8 Pro, kjører de fleste AI-funksjonene som ble utgitt i år med Pixel 9 og 9 Pro faktisk ikke helt på enheten, selv om det har vært et begrep som er fremhevet i biter og stykker. Jeg ser ingen klar klarhet fra Google direkte om hvilke funksjoner som fungerer helt offline og hvilke som ikke gjør det.
Det, føler jeg, er delvis fordi den nye Tensor G4 er en mindre oppgradering enn hva alle antok at den var. Det er mer eller mindre en Tensor G3 med en kjerne mindre, litt bedre ytelse og effektivitet. Google brukte til og med samme Tensor Processing Unit som i fjor, med forbedret Gemini Nano som den eneste nye tingen her.
Tatt i betraktning at Tensor G4 i seg selv ikke er så kraftig eller i nærheten av prosessorkraft som sine motparter som Snapdragon 8 Gen 3, Apple A17 Pro eller til og med Exynos 2400, er det smart av Google å laste det meste av lasten til skyserverne sine .
Det betyr også at disse skybaserte AI-funksjonene senere kan overføres til eldre Pixel-telefoner. Og akkurat som hvordan Google gjorde Magic Eraser, Photo Unblur og Magic Editor gratis og tilgjengelig for alle Android- og iOS-brukere , kan disse falle i samme ballpark. Jeg ville ikke bli overrasket om Google inkluderer dem som en del av Google One-abonnementsfordelene.
Google er tross alt et sky- og programvareselskap mer enn det er et maskinvareselskap, og denne tilnærmingen passer bedre til retningen. Men jeg ønsker å se mer fullstendig AI-funksjoner på enheten ettersom hele «AI på telefonen»-tingen blir mer vanlig.
5 Apple Intelligence-funksjoner som du allerede får på Pixel 9
Legg att eit svar