Hvilke hjelpemidler bruker jeg mest i min hverdag?

I dag når jeg stod på kjøkkenet stilte jeg meg spørsmålet: Hvilke hjelpemidler bruker jeg mest i hverdagen? Jeg er nok litt gammeldags av meg og bruker fremdeles PC mer enn mobil. For meg føles det som et tilbakeskritt å skulle sitte å knote på den lille mobiltelefonen. Jeg vil heller sitte med et ordentlig tastatur med en god programvare hvor jeg f.eks. enkelere kan bytte mellom flere åpne programmer enn hva jeg synes jeg får effektivt til på iPhone. F.eks. om jeg skal kopiere noe på utklippstavlen på iPhone og lime det inn i en e-post, må jeg jobbe lineert på iPhone mens i Windows kan jeg jobbe mer dynamisk og «ha flere ting i hodet og fingrene på en gang».

Det hjelpemiddelet jeg nok bruker desidert mest er den 64 tegns og 40 tegns Esys Light leselisten jeg har til den stasjonære og bærbare PC-en (som er forhandlet av Provista) sammen med skjermleseren JAWS, selvsagt, som gjør at jeg får opp teksten på skjermen i punktskrift på leselisten og som tale. Jeg har også i flere år brukt konkurrenten SuperNova (som kan fåes med forstørrelsesprogram), men det kan ikke jeg nyttiggjøre meg av, men jeg nevner det fordi det er eneste skjermleser med integrert forstørrelse. JAWS kommer med ZoomText i tillegg i pakken Fusion som jeg personlig trolig hadde gått for om jeg var kombinert forstørrelse- og skjermleserbruker. Et annet program som er hyppig i bruk på den stasjonære PC-en er skanner og OCR-programmet OpenBook. Jeg bruker en del OCR-apper på iPhone som f.eks. tilgjengelighetsappen Seeing AI og ikke den fullt så kjente Voice Dream Scanner, men jeg ender alltid opp med å foretrekke å sitte med PC-en. Jeg ser visst ut til å bli en gammel, grå, fosil blinding som sitter og tviholder på mine gamle løsninger som fungerte på 90-tallet. Forskjellen nå og da er at de fungerer med færre tekstgjenkjenningsfeil. Jeg husker da jeg skannet inn bøker i 1997 med et skannerprogram i DOS som het OsCaR hvor jeg måtte gå inn å redigere i nesten hvert eneste ord pga. feil. I dag gidder man nesten ikke å redigere en side om det er feil på hver eneste linje nedover en side, så tidene har endret seg.

Ja, og for å utheve med store bokstaver at jeg er en fosil, må jeg jo få si at et hjelpemiddel jeg nesten bruker daglig er jo faktisk min gode, gamle Perkins punktskriftsmaskin på 4,8 kg laget i solid materiale. Jeg vil ikke ha den nye generasjonen plast de forhandlet en periode, men nå kan det se ut som at Adaptor har sluttet å forhandle den typen Perkins – og det kanskje med god grunn… De var jo noe elendig rakkel. Eneste fordelen jeg kunne se, var at den var lettere, men det veide ikke opp for alle ulempene det førte med seg.

Et lite hjelpemiddel jeg bruker flere ganger daglig, som jeg nesten ikke tenker over at er et hjelpemiddel engang, er det taktile armbåndsuret mitt. Der løfter jeg opp lokket og kjenner på viserne for å se hvor mye klokken er. Jeg hadde i flere år talende klokker, og legg merke til at jeg skriver «klokker» i flertall, for de ble utrolig fort ødelagt. Jeg nektet for øvrig å ha norsktalende klokker fordi de snakket ulidelig sakte. Den ene klokken etter den andre sluttet å snakke av en eller annen uopprettelig grunn og eneste løsning hjelpemiddelsentralen så var å bytte dem ut. Jeg orket ikke til slutt å ha en klokke som en gang i året måtte på service og derfor gikk jeg over til taktilt armbåndsur eller «punktklokke» som den ofte blir kalt blant blindinger. En annen ulempe med talende klokke, bortsett fra den som stilte seg selv via radiostyring, var at de talende klokkene fikk en liten forsinkelse i tiden hver gang jeg trykket på klokken for å høre hvor mye den var. Pr. trykk utgjorde ikke dette mye, men når det ble snakk om 150 trykk og det ble en forsinkelse på kanskje ett sekund pr. trykk, ble det jo snakk om en del sekunder etter hvert. Fordelen med punktklokke, er at jeg kan se på klokken uten at det forstyrrer andre, f.eks. når jeg sitter på møter/foredrag eller hvis det er mye støy rundt meg.

DAISY-spilleren min Plextalk Linio Pocket er også noe jeg bruker omtrent hver dag, om ikke så mange timer hver dag. Den var litt innviklet å lære seg, for den har ganske mange få knapper med mange funksjoner på hver knapp, men jeg brukte den samme metoden jeg sier at kursdeltakerne på iPhone-kurs må benytte: Tvinge seg selv til å bruke den nye iPhonen (eller nye spilleren i mitt tilfelle) og ikke ha den gamle telefonen med tvillingkort. Det var utrolig fristende å bruke min gode, gamle BookSense som jeg var vant til og hadde brukt siden 2009 og kjente ut og inn som min egen bukselomme, men jeg visste at om jeg gjorde det, gjorde jeg meg selv en stor bjørnetjeneste. Da ville jeg ikke lære å bruke Linio. «Learning by doing». Jeg prøvet og feilet, om og om igjen, og trykket på feil knapper, rotet meg inn i menyer, lette etter de riktige knappene og klødde meg i hodet, men gradvis løsnet det og BookSense ble aldri ladet opp igjen etter første helgen etter at jeg fikk Linio i hus rett før påske i år. Jeg vant og jeg lærte!

Nå har jeg snakket mye om hjelpemidler for synshemmede. Jeg opplever jo meg selv i hovedsak som blind, men jeg har jo også andre funksjonsnedsettelser. På kjøkkenet kommer de til syne ved at jeg har en arbeidsstol som jeg er blitt utrolig glad i. Den kan jeg justere høyden på og trille rundt omkring samtidig som jeg kan sette brems på om jeg ønsker det. Jeg har den for å avlaste rygg og hofter pga. smerter etter at jeg skadet meg under epilepsianfallet jeg hadde i november 2016. Et annet hjelpemiddel jeg bruker nesten hver mandag og torsdag når assistenten min er hos meg, er rullestolen min når vi skal ut i verden. Påmontert den manuelle sammenleggbare rullestolen har jeg den ledsagerstyrte hjelpemotoren Viamobil. Jeg har også en Horo-pute som er fylt med luft som er trykkavlastende og smertedempende. I tillegg til å sitte på denne i rullestolen, sitter jeg på denne puten f.eks. i kontorstolen også. Ofte når jeg er ute i verden og vet at jeg skal sitte på harde underlag, tar jeg med meg denne puten fordi jeg vet at jeg lett får smerter i rygg og hofter av slikt underlag selv etter bare et par minutters sitting.

Sitater fra pressemelding fra Synshemmedes Aksjonsuke

I dag var jeg på Smartcafé i fylkeslaget i Hordaland. Denne uken er det Synshemmedes Aksjonsuke hvor fokus er synshemmede og tilgjengelighet til apper. Blindeforbundet skriver bl.a. på sin nettside: «Mange er ikke klar over at blinde og svaksynte bruker smarttelefoner, nettbrett og PC. Derfor bestemte vi oss for å kartlegge hvor vanlig bruken er, og hva slags apper synshemmede bruker mest. En undersøkelse gjennomført av Opinion viser at 83 prosent av de spurte bruker e-post på mobilen ukentlig. 82 prosent bruker mobilen til å surfe på nett, mens 76 prosent bruker den til å sjekke sosiale medier. Så å si alle under 60 år bruker Vipps.»

Jeg var med og skrev pressemeldingen som gikk ut til en del aviser i Hordaland i dag og der står jeg sitert bl.a.: «Jeg bruker NRK-appene for TV og radio/podkaster på iPhone i tillegg til TV2 Sumo. E-post, Facebook og messenger er også noe jeg sjekker hyppig i løpet av en dag. Dessuten, har jeg med meg lydbokspilleren på mobiltelefonen. Lise sitter i styret i Norges Blindeforbund Hordaland og er en racer på ikt. Hun er frustrert over at tilgjengelighet til viktige apper og nettsider fremdeles ikke er en selvfølge, selv om det kommer seg betraktelig.»

«Vipps er en enkel måte å overføre penger på og det er svært praktisk å slippe og håndtere kontanter, for meg som ikke ser. Dessuten er det praktisk å bestille drosje fra 07000 Bergen Taxi-appen. Å betale billett i Skyss-appen har også blitt svært enkelt. Kort sagt, jeg bruker stort sett de samme appene som det du som seende gjør, men unntaket må været bilder og videoer, selv om jeg kjenner blinde som også bruker de appene aktivt.»

«De fleste appene er tilgjengelige nå, men skal jeg peke på noen av de jeg har nevnt som har potensiale for forbedringer på området når det kommer til tilgjengelighet for oss som bruker tale på iPhone, blir jeg nok dessverre nødt til å trekke frem TV2 Sumo og Bergen Taxi.»

«Digitaliseringen i samfunnet gir også nye unike muligheter for selvstendig liv for synshemmede. Det finnes også spesielt utviklede apper for synshemmede som hjelper meg som blind i hverdagen med å lese teksten på et ark, se forskjell på matvarer som har lik emballasje, som for eksempel om det er rømme eller crème fraîche jeg har i hånden.
På samme måte er det hvis man som synshemmet har behov for bistand eller seende hjelp til noe. Facetime og Skype (direkte videooverføring med seende) gir enorme muligheter til bistand som jeg bare kunne drømme om for ti år siden. For eksempel for å se om jeg har flekker på klærne, før jeg skal ut blant folk, lese på digitale displayer, se om jeg har fått glasur utover hele kaken eller hvis jeg leter etter noe jeg ikke finner i boden min, sier Lise på 36 år, som har vært blind hele livet og bor i Bergen.»

Jeg har jo tidligere skrevet om tilgjengelighetsappen for synshemmede Seeing AI som inneholder alt fra en enkel fargeindikator til mer avanserte funksjoner som strekkodeleser og tekstgjenkjenningsfunksjoner. Den appen har rett og slett revolusjonert livet mitt og det kan du lese om i det blogginnlegget jeg lenket til. Det gir muligheter jeg bare kunne drømme om for 8-10 år siden.

Jeg utvidet senest min lille horisont i går med Facetime da jeg fikk hjelp til å se på et digitalt display på et apparat. Det fungerte og jeg fikk gjort de innstillingene jeg var ute etter. Det er jo rett og slett fantastisk! Ja, man trenger ikke Facetime. som forutsetter at motparten har en iPhone, men det holder at motparten har Skype eller Messenger. Det finnes mange muligheter for direkte bildeoverføring her. Og man kan velge å bruke kameraet bak på mobilen for å få best kvalitet på videooverføringen.

På en Smartcafé samles vi kanskje mellom 10 og 15 blinde og svaksynte medlemmer av fylkeslaget som er interessert i smartteknologi, kanskje spesielt iPhone og iPad siden det er flest som bruker dette av synshemmede, og det tas opp ulike temaer og det deles erfaringer. I dag var temaet Appbibliotek som jeg skal skrive om i et senere innlegg.

Jeg ønsker teknologien velkommen

I dag satt jeg på venterommet til urologisk poliklinikk for å diskutere med urologen om jeg skulle gå for kontinent reservoar eller ikke. Jeg var i en samtale 28. februar og fikk svar på noen spørsmål og skulle gå hjem og tenke meg godt om. I dag ble svaret at jeg ønsket å se det litt an. Jeg ønsker i første omgang å se om Botox-injeksjoner kan være et alternativ i mitt tilfelle. Jeg har allerede fått time til vurdering og informasjon der 30. august.

Jeg hadde forberedt et skriv til urologen i dag med noen tanker og spørsmål. Mens jeg satt på venterommet oppdaget jeg at jeg hadde to sammenbrettede ark i vesken min og jeg visste ikke hvilket ark som var det riktige. Hvordan skulle jeg få vite det? Jeg hadde liten lyst til å spørre en villt fremmed person. Jeg fant frem telefonen og appen Seeing AI som jeg har beskrevet her som kan lese opp trykt tekst for meg. Jeg holdt telefonen over arket og valgte «Short text» og den leste noen ord ut av teksten. Det var alt som skulle til for at jeg skulle gjenkjenne teksten jeg selv hadde skrevet. Ganske så fornøyd med meg selv over å ha klart det helt på egenhånd kunne jeg brette sammen arket og vite at jeg leverte det riktige arket til urologen – uten å måtte be om hjelp fra seende. Dette hadde ikke vært mulig for bare tre-fire år siden. Teknologien gjør fremskritt og teknologien gjør oss blinde mer selvstendig. Det er viktig at vi tar den i bruk for at vi kan gjøre oss mindre avhengig av hjelp fra seende.

Her om dagen skulle jeg finne ut av noen smaker på noen næringsdrikker jeg skulle gi bort til min venninne som skulle gå på flytende kost og da brukte jeg også Seeing AI for å finne den riktige smaken. Riktignok måtte jeg klundre en hel del for å finne ut av hva som var den riktige avstanden for at kameraet skulle oppfatte teksten på embalasjen, men når det var gjort, gikk det jo strålende. Ting tar gjerne litt lenger tid, men har man litt tålmodighet og tåler å prøve og feile litt, går det stort sett fint. Og i de tilfellene det absolutt ikke går, har man jo Facetime eller Skype som et alternativ. Vi trenger ikke lenger å ha en person fysisk til stede hos oss lenger. Om eksempelis fargeindikatoren ikke sier riktig farge, om jeg er usikker på om jeg har fått vasket bort alle flekker på kjøkkenet, om jeg har sølt på meg selv, om glasuren er smurt utover hele kaken eller om gjærbaksten ser godt nok stekt ut, kan jeg bruke videooverføring. Jeg husker at for 14-16 år siden savnet jeg akkurat dette. Jeg forsøkte å gjøre det beste ut av situasjonen for 14-15 år siden med å ta bilde av f.eks. kaken jeg hadde forsøkt å bre glasur over, men det var jo ikke alltid at bildet ble vellykket. Nå kan personen i den andre enden si direkte «ta kameraet litt mer mot høyre» eller «litt nærmere».

Tilgjengelighetsappen Seeing AI

Det er en app jeg har blitt veldig glad i og som jeg ønsker å si noen or om – Seeing Ai. «AI» står for artificial intelligence eller kunsig intelligents på norsk. Appen er på engelsk, men ble tilgjengelig for nedlastning på det norske markedet i AppStore (IOS) fra sommeren 2018. Jeg vil hevde at Seeing AI er den viktigste tilgjengelighetsappen i min hverdag. Den har gjort meg mer selvstendig spesielt når det er behov for å lese tekst. Det er Microsoft som har utviklet den. Den bruker kameraet på mobilen til å tolke omverdenen og hjelper meg som blind til å forklare hva som vises i kameralinsen enten det bare er lys, farge, tekst, sedler, person eller omgivelser – eller en kombinasjon.

Jeg vil først bare nevne kort:

  • Person: Du kan ta bilde av en person og få en analyse. Da vurderer Seeing AI kjønn, alder, hårfarge og humør. Hvor mye denne er til å stole på er jeg ikke helt sikker på. Jeg er blitt tatt for å være en 13-åring og samboeren min en gammel mann… Og hvor praktisk nytteverdi har denne funksjonen utover en god underholdningsverdi? «Vent, jeg må ta bilde av deg, for jeg må finne ut hvem du er!» blir det neste blinde sier fremfor å si et imøtekommende «hei» for å kjenne igjen folk på stemmen.
  • Currency: Denne hjelper deg med å gjenkjenne sedler. Foreløpig er det kun indiske rubies, britiske pounds, euro, canadiske og amerikanske dollar. Men det blir stadig flere valuta som kan gjenkjennes – for et halvt år siden var det kun amerikanske dollar og euro om jeg minnes rett. Det er en flott mulighet om vi er på reise i et land og vi ikke er vant til sedlene, i den grad vi håndterer kontanter i det hele tatt. Jeg for min del bruker i hvert fall mer og mer kort og i svært liten grad kontanter, men jeg er særdeles lite ute og reiser utenfor Norges grenser.
  • Scene (preview/under utvikling): Denne har jeg personlig ingen erfaring med, men har hørt at den skal være imponerende bra. Man tar bilde/video av en situasjon og får beskrevet situasjonen. Et videoopptak jeg har sett fikk en opplyst hvilken bussnummer som kom kjørende.
  • Color (preview/under utvikling): Enkel fargeindikator. Etter min mening er denne for enkel og har for stor feilmargin til å kunne være funksjonell. Jeg endte i hvert fall opp med feil farge på garnnøstet mitt når jeg forsøkte å bruke denne fargeindikatoren. Jeg skulle ha hvit og endte opp med åkergult. Når jeg ikke har mulighet til å spørre noen, men kan ringe noen, bruker jeg Facetime eller Skype og får hjelp på den måten.
  • Handwriter (preview/under utvikling): Her kan Seeing AI tolke håndskrift. Denne har jeg ingen personlig erfaring med, men jeg har hørt at den i hvert fall skal være brukbar på engelsk tekst. Jeg har veldig sjelden håndskrevet tekst fremfor meg i det store og det hele. Det må i så fall være små lapper med et klokkeslett e.l. og om jeg får det, benytter jeg samme fremgangsmåte som ved fargeindikatoren – Facetime eller Skype.
  • Light: Dette er vel den enkleste funksjonen i Seeing AI, men slettes ikke den dummeste. Den piper en mørk tone når det er mørkt i rommet og jo mer lys jo lysere tone. En veldig grei funksjon for oss som ikke kan se lys både for å sjekke om lyset er på og for å sjekke i hvilken retning lyset står på.

Men, for å få Person en noe mer fortjent og forsvart plass enn hva jeg først ga den, kan den også være nyttig. I siste versjon som ble sluppet i dag, kan du faktisk bruke Seeing AI til å tolke bilder du har liggende på telefonen eller som du kommer over på internett og den kan gjenkjenne deg selv eller kjente personer. Du kan lese blogginnlegget utgitt av Microsoft What’s new with Seeing AI?» eller den norske oversettelsen «Hva er nytt i Seeing AI?».

I tillegg har appen strekkodeleser, mulighet for å lese korte tekster og gjenkjenne dokumenter. Disse skal jeg omtale mer detaljert i dette blogginnlegget. For å høre en demonstrasjon av de ulike funksjonene til appen, har Morten Tollefsen laget dette lydopptaket hvor han viser appen i praktisk bruk.

Product (strekkodeleser)
Strekkodeleseren brukes kanskje mest på kjøkkenet for å skille produkter med lik emballasje. Det kan eksempelvis være matfløte/kremfløte/kaffefløte, ulike typer melk, ulike typer yoghurt, ulike typer biola, lettrømme/crème fraîche/kesam i ulike smaker, ulike typer Cola, ulike typer mel, ulike typer hermetikk, ulike typer poser med halvfabrikata (pulverposer) osv.

For å bruke strekkodeleseren må vi lære oss å finne strekkoden og lære oss å bruke kameraet riktig. Det kan være lurt å øve seg litt sammen med en som ser som kan veilede litt. Det var – er fremdeles – en del ting jeg i hvert fall ikke tenker over. Hvor er strekkoden? Den er ofte på baksiden av emballasjen, langs skjøten, på undersiden eller på siden om produktet er lite. Like viktig som å vite hvor strekkoden kan være, er å vite hvor strekkoden ikke er. Den er eksempelvis ikke på forsiden hvor det er produktets blikkfang. Når du skal lære å bruke kameraet, kan du tenke over avstand mellom kameraet og produkt, huske posisjon, forstå lysforhold, forstå emballasjens form, refleks og farge og hvordan alt dette påvirker hverandre. Det du skal huske på er at blank/reflekterende emballasje kan være vanskelig. Appen bruker blitz om det blir nødvendig, men det beste er om du bruker lys i rommet. Det gjør ingenting at emballasjen står på hodet. Omvendt kontrast har lite å si. Det viktigste er at det er tydelige bokstaver og ikke for snirklete skrift med for mye mønster.

Appen lager lydsignaler for å gi signaler om hvor langt unna sentrum i skjermbildet du er i å ha strekkoden. Den tar bildet automatisk når den mener at bildet er i fokus og er godt nok. Når den har tatt bildet, vises bildet på skjermen. Bildet/strekkoden gjenkjennes i en database. Bildet som vises på skjermen må lukkes før et nytt bilde må tas. Det sliter i hvert fall jeg litt med å skulle huske hver gang.

Jeg oplever at strekkodeleseren ikke er nøyaktig nok. Eksempelvis skiller den ikke på laktosefri og vanlig melk eller sukkerfritt og vanlig syltetøy. Man har en knapp som heter «More info» hvor det ville være naturlig at slik informasjon som dette ble lagt, men den knappen er inntil videre ikke tilgjengelig. Noe er man også nødt til å vite på forhånd, som blå gjær som brukes i brødbakst, den heter bare «original» i databasen sist jeg forsøkte.

Jeg synes det tar mye tid å bruke strekodeleseren i hverdagen. Jeg har ikke tid til å bruke ett minutt eller to for å finne ut om noe er kremfløte eller matfløte. Derfor har jeg funnet ut at short text er mye mer effektivt og gjør samme nytten.

Short text – OCR «in live»
Om jeg skal finne ut om jeg holder en matfløte eller kremfløte i hånden, som jo har helt lik embalasje, velger jeg modusen Short text. Da fungerer kameraet som en direkte OCR-skanner. Talen vil lese opp det som vises i kameraet akkurat der og da. Det som er viktig da, er at du er ganske stødig på hånden, for ved den minste bevegelse tolkes bildet på nytt og talen vil lese opp bildet på nytt. Om gjenstanden ikke er for høy, som f.eks. en putt kremfløte, yoghurtbeger eller rømmebeger, kan du støtte telefonen og begeret mmot bordplaten slik at begge deler holdes stille.

Det er først etter at jeg fikk prøve Seeing AI at jeg forstod hvor mye tekst som egentlig står på et produkt. Det står jo eksempelvis oppskrifter bakpå posene med havregryn, ulike meltyper, tips til tilberedning av gryter osv. Og når jeg skal lese teksten bak på en hel pose, eksempelvis en pose med havremel eller hvordan jeg tilbereder en gryte, bruker jeg modusen Document.

Document – til lengre tekster og dokumenter
Jeg kom med eksempelet nå på å bruke det til å lese bakpå gryter, melposer osv. Dette vil jeg nok i utgangspunktet si er en nødløsning. Om du skal lese teksten bakpå, vil jeg nok anbefale deg å bruke en skanner og et OCR-program som f.eks. OmniPage eller OpenBook (sistnevnte er spesiallaget med tanke på synshemmedes behov) fordi det gir en mer nøyaktig gjengivelse av teksten enn det Seeing AI klarer å gi nettopp fordi du bruker en skanner som gir bedre avlesningsforhold. Min erfaring er i hvert fall at teksten blir leselig om jeg legger godviljen til, men det blir en hel del feil og i blant må jeg gjette meg til hva som skal stå.

Men noe Documents er mer egnet til, er å lese et ark eller en bokside med tekst.Det gjør den så og si feilfritt. Om arket har kolonner, forsøker den også å tolke det, men så vidt jeg vet finnes det ikke noen innstillinger hvor man kan velge om den skal gjenkjenne kolonner eller ikke. Det kan være fint at den gjenkjenner kolonner om du skal lese en avisartikkel eller bok med kolonner, men det er ikke like praktisk om du ønsker å lese et program du har fått utdelt på et seminar du er deltaker på.

Når du skal ta bilde av f.eks. et ark, legger du arket på bordet fremfor deg og det er helst en fordel om lysforholdene er gode. Hold telefonen over arket og talen vil gi deg instrukser om du skal ta telefonen mer til høyre, mer til venstre, lenger oppover eller nedover for å få hele arket i fokus. Når hele arket har fått fokus i kameraet, blir bildet automatisk tatt og noen sekunder senere dukker det opp på skjermen som et dokument. Om dokumentet har overskrifter, er disse også kodet som overskrifter i den gjenkjente teksten. Du kan lese teksten med VoiceOver f.eks. ved å sveipe med en finger mot høyre og venstre slik at den leser avsnitt for avsnitt eller linje for linje, noe du velger i rotoren til VoiceOver. En enklere måte å lese dokumentet på er å dra en finger sakte nedover skjermen og talen vil lese opp det du har under fingeren. Når du kommer til bunnen, blar du til neste skjermbilde med å sveipe med tre fingre fra bunnen av skjermen mot toppen.

Laste ned og installere Seeing AI
For den som nå lurer, så finnes Seeing AI foreløpig kun for iPhone, men det er nok snakk om at den skal komme for Android-telefoner en gang i fremtiden.

For å laste ned Seeing AI, må du gå inn i AppStore. Gå inn på fanen Søk og skriv inn «Seeing» og velg deretter søkeforslaget «Seeing AI». Da får i hvert fall jeg opp Seeing AI som det første treffet. Deretter lastes appen ned som en hvilken som helst annen app, dvs. at du må ha en iCloud-konto med passord, og når den er lastet ned og installert velger du Åpne.

I aksjon med iPhonen igjen

I dag fikk jeg leselisten (punktskriftdisplayet) på 24 tegn som jeg bruker opp mot iPhonen tilbake fra service. Jeg synes det er ordentlig klønete saker å skulle famle seg rundt på skjermen bokstavelig talt i blinde. Jeg strevde med å få telefonen til å finne leselisten. Jeg fikk hjelp av samboeren min til å resette telefonen og leselisten ble funnet. Endelig ett skritt videre! Vi fant etter hvert ut at vi måtte koble til leselisten under Punktskrift i VoiceOver-menyen.

Når jeg trykker på navigeringstastene på leselisten, flyttes jeg f.eks. bortover langs rekkene med ikoner for de ulike appene, fra melding til melding i meldingslisten, fra felt til felt eller fra knapp til knapp når jeg skal legge til en kontakt osv. Jeg kan dobbeltklikke på markørhenterne for å kunne skrive inn noe i et redigeringsfelt, men om jeg trykker én gang på markørhenteren helt til venstre gir dette samme resultat.

En «ny dimensjon» i iPhone-verdenen

I påsken hadde jeg et hyggelig besøk av et synshemmet vennepar av meg og jeg fikk hjelp til å koble opp min lille leselist VarioConnect på 24 tegn med punktskrifttastatur opp mot iPhone, og iPhone fikk straks «en ny dimensjon» for meg. Det jeg synes har vært mest trøblete med å bruke iPhone, er å skulle forholde seg til en visuell skjerm. Finne frem til knapper som kan være både her og der. Etter hvert så jeg et mønster, f.eks. at avbryt/tilbake oftest var oppe i venstre gjørne, at OK/ferdig var øverst i høyre hjørne osv. Jeg synes også skrivingen var noe trøblete eller mest kjedelig fordi det var ineffektivt, selv om det gikk noe raskere etter litt trening. Dessuten synes jeg hele tiden det var et tilbakeskritt å kun kunne kjøre ett program om gangen. Det var (og er fremdeles) som å gå tilbake til DOS 6.0 i mitt hode.

Når jeg brukte leselisten opp mot iPhone, var det enkelt å flytte seg rundt på skjermen og jeg kunne skrive inn tekst med punkttastaturet (8-punktstastatur). Det er mange hurtigtaster på leselisten som jeg selv kan lære meg under «VoiceOver Øving». Nå har jeg tatt i bruk apper som Google, Twitter, Messenger og Facebook. Kanskje Lise blir aktiv på sosiale medier?

Seminar om iPhone

I dag var jeg med å arrangere et seminar og workshop i regi av Interessegruppe for Synshemmede EDB-brukere (ISE). Der ble det innledet med en times innlegg om generell bruk av iPhone og deretter 15 min. med orientering om hvordan blinde kan bruke iPhone. Deretter ble gruppen delt i to med blinde i en gruppe og svaksynte i en annen gruppe. Det viste seg at gruppen for blinde med fordel kunne vært delt i to.

Det ble servert pizza. Praktisk ble det godt gjennomført med 16 personer som så dårlig. Våre to hjelpere orienterte om hva som var på de ulike pizzaene og deretter gikk de rundt og de som ville ha den pizzae det ble gått rundt med, sa i fra om dette. Jeg hadde også bakt en sjokoladekake som noe å bite i til kaffen etter pizza. De to hjelperne var også behjelpelige med servering av brus, kaffe og te under hele arrangementet. Det var bare å rekke opp en hånd, så kom hjelperne stille og nesten usynlig bort for å høre om behovet. Jeg må berømme våre to hjelpere.

Etterpå var det workshop igjen, men denne falt litt sammen. Det ble heller til at folk satt og snakket. Om de snakket om iPhone eller ikke vet jeg ikke. Noen måtte rekke fly og buss.

Alt i alt et vellykket arrangement.

I ferd med å bli venn med iPhonen

Jeg har nå hatt min iPhone i ganske nøyaktig to år. Først de siste dagene har jeg klart å bli venner med den. Nå ser jeg at den har andre muligheter enn kun å sende SMS og ringe med. Jeg har lastet ned Yr fra NRK og kan sjekke været her og der. Jeg har lastet ned en app som heter «TapTap see», hvor jeg kan ta et bilde og få det analysert. Den klarte å skille mellom kremet blomkålsuppe og bergensk fiskesuppe. Den skiller mellom vanlig Cola og Cola Zero. Den så at krydderet var sitronpepper. «En hund som sover» fikk jeg til beskjed når jeg tok bilde av Flex i sengen. I dag rotet jeg meg litt bort på tannlegekontoret, og brukte «TapTap see» til å finne døren. Jeg tok bbilder rundt meg, og: «Svart innrammet glassdør lukket» fikk jeg beskjed om. For seende er denne appen bare morsom, men for meg er den et nyttig verktøy. Jeg gleder meg til å teste videre i app-verdenen. Nå er iPhone gøy!

Status: iPhone i 14 måneder

Nå har jeg hatt min iPhone i 14 mnd. Jeg er fremdeles ikke overbevist, men bruker den mest fordi jeg ikke har andre alternativ. Å ringe, bruke kontaktregisteret og lese meldinger går fint, men å skrive er noe herk. Har vurdert å skaffe meg et bluetooth-tastatur, enten QWERTY-tastatur eller punkttastatur, men det har ikke blitt til det enda – og jeg vet ikke om .det vil bli noe heller. Enda en «dings» man må huske å lade opp…

Jeg fikk heldigvis solgt Mac-en for 6.000 kr. til en bekjent av meg. Det virket som han ble fornøyd, og ingenting er bedre enn det. Mac var rett og slett ikke min greie, like lite som jeg tror at iPad er min greie. Hvorfor ha iPad når man datamaskin som bare stårog samler støv. ha en PC med et godt tastatur å skrive på? Jeg kjøpte Mac-en for 7.500 kr. og oppgraderte den med SSD-disk og 8 GB RAM, så jeg har tapt litt, men 6.000 kr. er jo bedre enn å ha en Mac stående og samler støv.

Det tar litt tid…

I mai kjøpte jeg meg en iPhone. Jeg har hatt den i tre måneder. Jeg strever med tålmodigheten til å sitte lenge av gangen og prøve på nytt og på nytt. Jeg synes jeg skriver lite effektivt på den og jeg skriver ofte feil. Jeg vil koble telefonen til PC-en for å redigere kontaktregisteret, for jeg skriver så mye feil. Men når iTunes skal tas i bruk, gjøres det på en virtuell maskin. Jeg vil ikke ha iTunes installert på min hoved-PC.

Jeg er en enkel bruker av iPhone. Jeg har nylig tatt i bruk kalenderen og jeg bruker kontaktregisteret og siste brukte. Og selvsagt SMS, men jeg er ikke flink til å skrive SMS. Det tar så voldsomt lang tid. Da går det raskere å logge seg inn på Telenors nettsider og gjøre det derifra.