I denne vejledning gennemgår vi flere eksisterende iOS-funktioner, der bruger kunstig intelligens (AI) og maskinlæring (ML) til at give nye og kraftfulde funktioner til din iPhone og iPad.
Apple Intelligence (Apples betegnelse for dets interne AI) blev annonceret ved siden af iOS 18 men er endnu ikke frigivet. Det formodes at bringe flere funktioner som korrekturlæsning af din skrift, ændring af din sætningsstruktur, opsummering af lange tekster, fremvisning af de mest presserende e-mails og meddelelser øverst, omdanne din skitse til billeder, rensning af unødvendige objekter fra en fotobaggrund og meget mere.
Selvom Apple Intelligence helt sikkert vil tage AI-funktioner for iPhone-brugere til det næste niveau, er flere eksisterende aspekter af iOS og iPadOS allerede stærkt afhængige af kunstig intelligens og maskinlæring. Vi vil gennemgå de vigtige nedenfor.
Før du kommer til det, skal du vide, at AI og ML er tæt beslægtede, men hvis du vil forstå forskellene mellem dem, Google Cloud og Amazon AWS har fremragende artikler, der virkelig er din tid værd.
Takket være Apples Machine Learning kan folk med risiko for at miste deres tale skabe en kunstig stemme, der lyder som dem .
Denne syntetiserede replika-stemme kan bruges med Live Speech funktion under FaceTime, telefonopkald, apps og personlig kommunikation. Brugeren kan blot skrive, hvad de vil sige, og deres iPhone vil sige de skrevne ord i deres stemme!
Du kan gennemgå en hurtig Eye Tracking-opsætningsproces , og så kan Apples on-device Machine Learning finde ud af dine øjenbevægelser for at fremhæve elementer og udføre et tryk blot ved at kigge. Dette er nyttigt for personer, der ikke kan bruge berøringsskærmen på grund af fysisk handicap.
Din iPhone kan forstå lyd og vise den på skærmen i tekstform. Dette kan f.eks. styrke en døv til brug Live Captions i FaceTime-opkald eller mens du ser videoer. Dette er også nyttigt i transskribere stemmeoptagelser i stemmememoer og Noter apps.
Al behandling udføres lokalt på enheden uden internetforbindelse for at sikre det største privatliv.
Fotos-appen giver dig mulighed for find det rigtige billede ved at beskrive det . For eksempel kan du skrive ' Pizza , og det vil vise alle dine billeder med pizza i.
Apple er i stand til at analysere, indeksere og forstå dit fotoindhold ved hjælp af avanceret intelligens og Machine Learning.
Den kommende Apple Intelligence vil tage dette videre ved at lade dig finde det rigtige billede ved hjælp af lange, komplekse udtryk som ' Sebastien i blå skjorte og sort slips ' eller ' Pam med klistermærker i ansigtet .'
Din iPhone og iPad kan skelne hovedmotivet fra resten af billedet. Som et resultat kan du fjern din hund fra et billede og bruge det som et klistermærke . Eller du kan trække dit ansigt ud fra et billede og indsætte det i andre apps for at gøre ting som oprette et foto til din pasansøgning .
Hvis du har tekst i et billede eller en video, kan du ganske enkelt tryk på den og kopier den til udklipsholderen . Din iPhone er smart nok til at genkende tekst i et billede og lader dig handle på det, som om det var noget tekst i et Word-dokument.
Fotos-appen kan genkend mennesker og kæledyr på dine billeder og sæt alle billederne af en bestemt person på ét sted, som du kan få adgang til i Mennesker afsnittet i Fotos-appen.
Når du åbner bestemte billeder i Fotos-appen, kan du muligvis se specielle ikoner som informationsknappen ⓘ med to stjerner eller et blad med stjerner. Tryk på det ikon, eller stryg op til brug den smarte Visual Look Up-indstilling .
Denne intelligente funktion er praktisk til at få mere information om den ting, men husk på, at den ofte går galt. Så dobbelttjek altid.
Din iPhone kan endda tyde vaskesymboler på tøjmærker og give dig mere information om dem!
Ud over at genkende mennesker og kæledyr, har din iPhone mulighed for at skabe minder og korte videoer baseret på en begivenhed, dato, tur og andre parametre. Du kan finde disse specielt kurerede medier i Erindringer og Rejser sektioner af din Fotos-app.
Fotografiske stilarter , Makro fotografering , Nattilstand , Portrætbilleder med sløret baggrund , og flere andre aspekter af iPhone Camera-appen er stærkt afhængige af avanceret beregning og algoritmer.
For eksempel, når du trykker på udløserknappen, kan din iPhone øjeblikkeligt tage flere billeder og derefter bruge Machine Learning-algoritmer til at kombinere de bedste aspekter af alle billederne, hvilket fører til et enkelt billede, der ser godt ud med alle detaljer, farver, højlys, og lysstyrke.
Det Journal app på iPhone tager højde for din placering, tid, billeder, seneste aktiviteter, musiksmag og andre faktorer for at give personlige forslag. Disse kan hjælpe dig med hurtigt at oprette en dagbogsoptegnelse, så du kan minde om dagen i fremtiden. Al behandlingen for at komme med forslag til journalføring sker privat på enheden, takket være Apples avancerede maskinlæring på enheden.
Takket være intelligens på enheden kan Live Recognition og VoiceOver-funktioner på din iPhone registrere personer, døre, tekst, møbler og andre genstande omkring dig og beskrive, hvad de er. For eksempel, når jeg peger den på mit skrivebord, siger den med rette, ' et hvidt tastatur på en træoverflade .'
Det kan endda forklare, hvordan man åbner visse døre!
Du kan brug livegenkendelsestilstanden i Magnifier-appen på din iPhone.
Uanset om det er App Library, Siri Suggestions-widget , Spotlight eller Lock Screen-forslag, iOS bruger Machine Learning til at forstå dine brugsmønstre og foreslå relevante apps og handlinger på det rigtige sted og på det rigtige tidspunkt.
Det er tydeligt, at din håndflade hviler på skærmen, når du skriver eller tegner med Apple Pencil. iPadOS bruger Machine Learning til at finde ud af forskellen mellem din fingerberøring, håndledsstøtte og blyantinput. Så når du tegner med en blyant, er softwaren smart nok til at ignorere dine håndfladeberøringer.
Tilsvarende Skrible med Apple Pencil og konvertere håndskrift til maskinskrevet tekst eller kopiere dem også bruge avancerede læringsalgoritmer til at få det til at ske.
Selv noget så simpelt som at oplade din enhed er ikke berøvet Machine Learning. Når du bruger din enhed, forstår din iPhone dine opladnings- og brugsmønstre og kan foretage ændringer forlænge dens levetid .
For eksempel, hvis du tilslutter din iPhone til opladning hver dag før du går i seng, vil din iPhone det pause opladningen efter at have nået 80 % . Den genoptager opladningen på det rigtige tidspunkt, så når du vågner, er din telefon på 100 %. Dette sikrer, at din iPhones batteri ikke er fuldt 100 % opladet i lange timer om natten, hvilket hjælper med at forlænge dets helbred.
Din iPhone kan bruge intelligens på enheden til at lytte til forskellige lyde, såsom brandalarm, dørbank, glas, der går i stykker, apparater og mere, og give dig besked om dem. En person, der ikke kan høre, kan brug lydgenkendelse at vide, om nogen ringer på deres dør for eksempel.
Face ID bruger allerede et komplekst system til at forstå dine ansigtstræk til godkendelse.
Desuden kan fotos-appens evner til persongenkendelse være bruges sammen med HomeKit-kameraer at tagge din familie og venner, så du ved, hvem der står ved døren.
Udover de ovennævnte funktioner er der flere andre ting, som f.eks tastatur forudsigelser , emoji-forslag , tapetdybdeeffekt på låseskærmen , foreslåede tapeter med farvede baggrunde, offline Siri , og flere, er også afhængige af Machine Learning.
Nu tænker du måske, at næsten alt på den moderne iPhone er berørt af ML og AI, og du ville ikke tage fejl.
Apples Senior Vice President for AI og ML, John Giannandrea , sagde for et par år tilbage, at ' Machine Learning vil transformere alle dele af Apple-oplevelsen i de kommende år ', og det er tydeligt, at hans ord går i opfyldelse.
På en relateret note: Systemkrav til Apple Intelligence