Apple vil bringe nye AI-drevne tilgængelighedsfunktioner til iPhone, iPad, Mac, CarPlay og Vision Pro med iOS 18 og andre opdateringer, der falder til efteråret.
iOS 18 og iPadOS 18 vil bringe mere end et dusin nye tilgængelighedsfunktioner, herunder Eye Tracking, Music Haptics, Vehicle Motion Cues, Hover Typing og mere, der kommer til iPhone, iPad, Mac, CarPlay og Vision Pro til efteråret.
Mange ser ud til at bruge kunstig intelligens (AI), som burde være det underliggende hovedtema for iOS 18 og andre Apple OS-opdateringer, der kommer til efteråret. En spændende funktion sigter mod at forhindre køresyge, når du bruger en iPhone i et køretøj i bevægelse.
Apple viste en forhåndsvisning af flere nye tilgængelighedsfunktioner forud for Global Accessibility Awareness Day. Meddelelsen i Apple Newsroom bekræfter, at mange af disse funktioner er baseret på kunstig intelligens og maskinlæring, hvilket giver dig en forsmag på, hvad der kommer med iOS 18s rygtede AI-funktioner.
Dette giver dig mulighed for at navigere på en iPhone eller iPad med dine øjne. Med læring fra Vision Pro-headsettet vil Apple give dig mulighed for at navigere i iOS-brugergrænsefladen og apps udelukkende med dine øjne. Eye tracking udnytter det frontvendte kamera og maskinlæring på enheden.
Music Haptics vil bruge din Taptic Engine, iPhones tilpassede vibrationsmotor, til at producere raffinerede vibrationer som tryk og teksturer, så folk, der er hørehæmmede, har en måde at fornemme musik. Apple siger, at Music Haptics fungerer 'på tværs af millioner af sange' i Apple Music-kataloget. Desuden vil virksomheden levere en API til udviklere for at 'gøre musik mere tilgængelig i deres apps.'
AssistiveTouch får en virtuel pegeplade til at navigere på din iPhone eller iPad ved at flytte fingeren hen over et lille skærmområde. Denne virtuelle pegefelt kan ændres størrelse.
Vocal Shortcuts er en anden ny funktion med potentiale. Det lader dig oprette brugerdefinerede ytringer til Siri for at starte genveje til at fuldføre komplekse opgaver.
Du vælger en handling og optager en tilpasset talt sætning tre gange for at lære din iPhone at genkende den. Dette vil lade dig udløse genveje og udføre komplekse opgaver ved at udtale en passende sætning.
Hader du ikke, når en webside eller app bruger en lille skrifttype til et tekstfelt, der tvinger dig til at skele? Med Hover Typing vil en iPhone registrere, når du interagerer med et tekstfelt og vise større tekst over det, når du skriver. Dette fungerer overalt, hvor du kan indtaste tekst i felter, inklusive chat i Beskeder.
Køresyge er forårsaget, når din hjerne modtager et modstridende sensorisk input, hvor dine øjne mærker én ting, men din krop mærker noget andet, som når du bruger en iPhone (stirrer på statisk indhold), mens du kører i et køretøj (fornemmelse i bevægelse).
Vehicle Motion Cues har til formål at afhjælpe denne sansekonflikt ved at animere prikker på skærmens kanter i henhold til ændringer i køretøjets bevægelse. Funktionen bruger indbyggede sensorer og kan indstilles til automatisk at gå i gang, når den registrerer, at du er i et køretøj i bevægelse, men du kan også skifte det i kontrolcenteret.
Stemmestyring til CarPlay giver dig mulighed for at bruge din stemme til at navigere i CarPlay-grænsefladen og apps med din stemme. Funktionen understøtter brugerdefinerede ordforråd og komplekse ord. CarPlay vil også hente to eksisterende tilgængelighedsfunktioner fra iPhone: Farvefiltre og lydgenkendelse.
Farvefiltre bruger dristigere skrifttyper og større skriftstørrelser for at gøre CarPlay-grænsefladen visuelt mere overskuelig at bruge. Lydgenkendelse vil underrette brugeren om væsentlige trafiklyde som bilhorn og sirener.
Mac-brugere vil være i stand til at tilpasse VoiceOver-tastaturgenveje. VoiceOver vil også få nye stemmer, understøttelse af en fleksibel stemmerotor og tilpasset lydstyrkekontrol.
Magnifier vil bringe en ny funktion kaldet Reader Mode, men Apple har ikke sagt, hvad den er til. Det lyder som Reader Mode i Safari. Måske vil dette præsentere genkendt tekst fra dine omgivelser (såsom restaurantmenuer, skiltning osv.) i råtekstform. iPhone 15 og iPhone 15 Pro-brugere vil hurtigt kunne åbne Magnifier's Detection Mode med et tryk på Action-knappen.
Apple har ikke glemt visionOS. I efteråret vil visionOS 2 få fire tilgængelighedsrelaterede forbedringer. Den eksisterende Live Captions-funktion vil være tilgængelig på tværs af systemet, ikke kun på FaceTime.
'Apple Vision Pro vil tilføje muligheden for at flytte billedtekster ved hjælp af vinduesbjælken under Apple Immersive Video, samt understøttelse af yderligere Made for iPhone-høreapparater og cochlear-høreprocessorer,' siger Apple.
Desuden vil Vision Pro få funktionerne Reducer Transparency, Smart Invert og Dim blinkende lys, som har været tilgængelige på andre Apple-enheder, men som ikke har nået den første visionOS-udgivelse.
Braillebrugere vil få en ny måde at starte og blive i Braille Screen Input for hurtigere kontrol og tekstredigering. Apropos det, understøttes det japanske sprog til Braille Screen Input og for multi-line braille til Dot Pad. Der vil også være mulighed for at vælge forskellige input- og outputtabeller.
Den personlige stemme vil være tilgængelig på mandarin-kinesisk. FApple har ændret Personal Voice onboarding til at bruge forkortede sætninger til folk, der har svært ved at udtale eller læse hele sætninger. Live Speech vil omfatte kategorier og 'samtidig kompatibilitet med Live Captions.'
Stemmestyring vil understøtte brugerdefinerede ordforråd og komplekse ord, og Switch Control vil bruge en iPhones kamera til at registrere fingertryksbevægelser som kontakter.
Endelig vil en funktion kaldet Lyt efter atypisk tale booste talegenkendelse ved at bruge maskinlæring på enheden til at genkende dine talemønstre. Apple siger, at denne funktion forbedrer talegenkendelse 'for en bredere række af tale.'
Jeg syntes, det var interessant, at mange af ovenstående funktioner gør stor brug af kunstig intelligens og maskinlæring. Jeg talte: Apple Newsroom-meddelelsen nævner 'kunstig intelligens' og 'maskinlæring' tre gange hver.
Dette er blot et glimt af andre AI-drevne funktioner, der menes at komme til iOS 18 og Apples andre softwareplatforme i efteråret, især Siri-forbedringer baseret på store sprogmodeller på enheden og generative AI-egenskaber .