Lar du deg imponere av disse flinke blinde?

Jeg fortalte for tre dager siden at vi var ute og fløy og at det å fly er den tryggeste måten man kan fly på som synshemmet. Noen ganger lar noen seende seg imponere så voldsomt av oss blinde. Han som fulgte oss på Flesland på fredag, synes det var så imponerende at vi kunne bruke smarttelefon. Teknologien var kommet så langt. Tenk at telefonen kunne snakke og at vi som engang ikke så skjermen kunne bruke en telefon kunne ta den i bruk. Og i tillegg visste om alle appene som fantes! Og enda bedre, visste hvordan de skulle brukes alle sammen, og det uten syn. Jeg tenkte litt for meg selv, at teknologien for seende, der skjermen som viser bildet og der man kan trykke på det man ser og deretter aktiverer det, egentlig er mer imponerende enn for meg som bruker tale. Om man skal ta det hele fra hverandre.

Hvordan hadde du som seende reagert om jeg hadde begynt å rose deg fordi du var så flink som kunne spise så pent uten å søle med kniv og gaffel? Du hadde følt deg ganske dum går jeg ut ifra. Du hadde følt at dette var litt nedsettende og unødvendig ros. Ros for noe dagligdags. Ros som nesten latterliggjorde deg for noe du utførte med den største selvfølge. «Fantastisk! Jeg blir så imponert over alt dere får til selv om dere ikke ser» sa mannen fra ledsagertjenesten når vi satte oss inn i drosjen. Der gjorde han nettopp det. Jeg forstår hvorfor han gjorde det. For ham virket det som en bragd. Når han lukket sine øyne, virker det vanskelig å skulle orientere seg og finne frem. For oss som har levd som blinde hele livet, er dette dagligdags og vi tar det for gitt at vi får det til. Det å få ros for å sette oss inn i en bil, er å bli behandlet som en 3-åring når du er to voksne personer. Jeg vet at mannen mente det godt, men jeg nevner dette for å forhåpentlig lage en tankevekker for deg som leser dette og er seende.

Noe som viser det samme, er denne fiskebollehistorien fra Kristiansand: En gang jeg var innlagt på sykehus, var det fiskeboller til middag. Sykepleieren min hadde tilberedt maten for meg etter beste evne og tenkte sikkert at jeg trengte å få det tilrettelagt siden jeg var blind. Jeg fikk maten servert i suppeskål, alt oppdelt i biter og servert med stor skje. Jeg ventet nesten å finne ketchup på toppen, men den manglet. Da jeg var liten, var jeg nemlig et ketchupbarn. Jeg måtte ha ketchup på spaghetti og kjøttsaus, kjøttkaker, julemiddagen og på fiskebollene. Jeg ble litt usikker nå, men jeg tror faktisk jeg hadde ketchup på min mors lapskaus også.

Igjen nye muligheter – Be My Eyes

Har du hørt om appen Be My Eyes? Jeg har visst om appen i et par års tid, men avvist den og tenkt at «nei, den vil ikke jeg benytte meg av». Appen går ut på at man som blind kan be om assistanse fra frivillige seende personer i et nettverk over hele verden som hjelper deg til å bruke kameraet på mobiltelefonen for å se på ting du som blind ikke finner ut av på egenhånd. Jeg har jo selv brukt prinsippet i et par års tid selv særlig fra min mor og min tidligere samboer over Facetime og Skype, men forskjellen der er at jeg vet hvem jeg kontakter. På Be My Eyes får jeg kontakt med mennesker jeg ikke aner hvem er og det har nok vært grunnen til at jeg har vært nølende. Jeg har nølt fordi jeg har vært redd for å kunne bli koblet sammen med en person som f.eks. kun behersker engelsk. Jeg er ikke flink i engelsk selv dessverre noe jeg skriver litt om i dette innlegget som henger sammen med sviktende oppfølgning fra lærerne på barneskolen. Da jeg var på høstmøtet til Norges Blindeforbund i Hordaland i november, fortalte Yngve Stiansen som er kjent fra YouTube-kanalen «Hverdagsteknologi for synshemmede» om denne appen og jeg fikk et bedre innblikk i hvordan den faktisk fungerer. Mine antakelser var jo helt feil, Man kan bl.a. velge hvilket språk man ønsker å få assistanse på. For egen del valgte jeg å motta assistanse på norsk og svensk. Appen er oversatt til norsk og de fleste funksjonene er også tilgjengelig for oss norske brukere utenom det som kalles «spesialisert hjelp».

Selv om appen nå har vært installert på min telefon i fire uker, har jeg frem til i går kveld ikke tatt den i bruk. Jeg har frem til nå valgt å få hjelp av familie som jeg kjenner. Men det er ikke alltid at det passer å kontakte familien for assistanse. I går var klokken blitt 23.15 og jeg er et mer nattmenneske enn resten av familien min. Jeg hadde forsøkt i nærmere 10 minutter å finne ut av om en gjær var rød eller blå ved å bruke tre ulike apper på telefonen. Nå i etterpåklokskapens lys innser jeg at jeg kunne forsøkt én app til. Til sist startet jeg Be My Eyes og trykket på knappen «Kontakt første tilgjengelige frivillige» og jeg hørte en litt plingende lyd i øret (jeg hadde på meg AirPods). Etter ca. et halvt minutt svarte en svensk dame og jeg fikk svaret på spørsmålet jeg hadde forsøkt å finne ut av med ulike apper i 10 minutter før jeg fant frem Be My Eyes. Det var en blå gjær – den gjæren jeg var ute etter. Jeg takket for hjelpen og ønsket henne en god St. Lusiadag videre. Hun sa at selv var hun i Colerado. Jeg har et prinsipp om å være flink til å takke for hjelpen jeg får, enten det er fra ukjente, kjente eller nær familie. Det tror og håper jeg at jeg er flink til.

Når du skal bruke Be My Eyes, er det et par ting som er viktig å ha i hodet for å ta vare på eget personvern. Ikke presenter deg selv når du får kontakt med en frivillig hjelper. De presenterer seg ikke til deg heller. Det er helt fremmede personer du trolig aldri kommer til å ha noe med å gjøre igjen. Ikke vis ansiktet ditt. Det er frontkameraet som brukes og om du holder mobilen fremfor deg, er du sikker på at du selv er utenfor fokus. Jeg tenker også litt på hvilke omgivelser jeg viser. Jeg viser ikke et totalt rotete kjøkken, en stor oppvask som venter, en skitten komfyr, en rotete stue, et overfylt kontor e.l. Det har lite å si i praksis, men kan gi et negativt bilde om deg som person eller din situasjon. Og nå det desidert viktigste: Vær bevisst på hva du ber om assistanse til og hva du ikke ber om assistanse til. Jeg kommer ikke til å be om hjelp til å lese en regning. Den inneholder informasjon om meg jeg ikke ønsker at fremmede skal få vite. Ikke be om hjelp som kan gi sensitive personopplysninger eller også helseopplysninger om deg. Kanskje kan du ha en generell regel om at det som det er greit å be om hjelp til fra forbipasserende på gaten, er det også greit å bruke Be My Eyes til. Det kan være lett å strekke strikken for egne grenser i disse tilfellene jeg nevner fordi det er så utrolig nyttig å få hjelp på denne måten – det gir jo utrolige muligheter og en fantastisk følelse av frihet og selvstendighet. Det er ikke bra om det skjer ukritisk. «Han eller hun kjenner meg ikke likevel» eller «jeg kommer aldri til å se vedkommende igjen» kan vi kanskje lett tenke, men hva om vedkommende faktisk tar opp videosamtalen på sin egen mobil eller nettbrett? I verste fall om du er riktig uheldig – og nå lager jeg verste scenarioet – kan den publiseres på nettet, som YouTube eller Facebook, og da har man absolutt ingen kontroll på hvem som får tilgang. Da står du maktesløs. Hva da om du ba om hjelp til å lese av kortnummeret på det nye mastercardet du fikk i posten?

Jeg tenker i blant: De seende har det utrolig enkelt. Tenk å leve i et så godt tilrettelagt samfunn der all skrift er tilgjengeliggjort for seg. Der all informasjon er ganske enkelt tilgjengelig. Jeg bruker enormt mye tid og krefter på å forsøke å finne ut av ting. Jeg kunne ha spurt om mer hjelp, men jeg er en sta blinding og vil gjerne klare meg selv. Det er i utgangspunktet en god egenskap, men det tar i blant mye tid og mange krefter. På telefonen min har jeg til sammen 16 ulike tilgjengelighetsapper som jeg veksler mellom å bruke avhengig av hva jeg skal gjøre og om jeg regner med GPS-appene i tillegg, kan jeg legge til 5 apper til. Be My Eyes og Facetime/Skype gir jo utrolig mange muligheter som ikke fantes før. Nå er vi ikke avhengig av at seende fysisk er til stede hos oss. Jeg har fått bistand til papirarbeid gjennom Facetime via min mor. Hun har også hjulpet meg i boden, sett om jeg har flekker på klærne, hjulpet meg med å tørke opp søl en gang ketchupflasken delte seg i det den gikk i gulvet, sett på bakst i stekeovnen, lett etter ting i et rom, hjulpet meg med å åpne et smykke jeg ikke forstod hvordan skulle åpnes, sett på fargen på garnnøster, lett etter garnnøster når jeg hadde rotet det bort under en dobbeltseng og ikke fant det selv fordi det hadde trillet ut midt på gulvet, lest på produkter i kjøleskapet, sett på displayer, lest av temperaturen i kjøleskapet, sett i bøker eller sett på boktitler jeg skal skanne inn (oppskriftsbøker), sett på skjermen på PC-en, hjulpet meg når jeg har rotet meg bort utendørs og ikke funnet frem, lest på skilt på dører… og slik kunne jeg trolig ha fortsatt lenge… Det er egentlig bare fantasien som setter grenser. For ordens skyld, mine foreldre er min lese- og sekretærhjelp gjennom NAV, så de bistår meg ikke gratis med alt dette 🙂 Jeg er utrolig takknemlig for all hjelpen jeg får av de, så er det også sagtavslutningsvis.

Epilepsialarmen EpiMobile – til nytte eller belastning?

Onsdag 10. juli fikk jeg telefon fra Hjelpemiddelhuset i Bergen kommune som lurte på om jeg var hjemme. De ønsket å komme på døren i løpet av de kommende 20 minuttene å montere en komfyrvakt og en epilepsialarm jeg var blitt innvilget. Som vanlig når en ergoterapeut søker om hjelpemidler for meg, får jeg ingen beskjed om vedtak, men blir bare kontaktet ved hjelpemiddelutlevering. Bergen kommune forutsetter tydeligvis at deres brukergruppe av hjelpemidler er hjemme på dagtid og med andre ord ikke er på jobb. Jeg tok det opp da jeg satt i et brukerutvalg for NAV Hjelpemiddelsentral i Hordaland og fikk da beskjed om at de hadde hatt et forsøksprosjekt med å være tilgjengelig også om ettermiddagen, men at dette tilbudet ikke ble benyttet.

Teknikeren kom, monterte komfyrvakten og viste meg hvordan jeg ev. skulle avbryte den dersom den ble utløst. Jeg sa at mine foreldre hadde komfyrvakt og at de mente den ble utløst i tide og utide pga. damp, men teknikeren mente at denne jeg fikk utdelt ikke hadde vist de tendensene. Den har også holdt mål. Jeg har kun opplevd én gang at den har begynt å pipe ved damp og jeg har da avbrutt den ved å trykke på knappen. Jeg synes det har vært en trygghet å få komfyrvakt i hus. Jeg har jo f.eks. kokt poteter og gulrøtter på full effekt uten å registrere at jeg gjorde det og evne å tenke at jeg skulle skru ned platene under et fokalt anfall en gang. Jeg har skrevet et blogginnlegg om NAV som ville fjerne utlån av komfyrvakt, men de måtte til slutt gi seg etter sterkt påtrykk fra Brannvesenet.

Teknikeren la også en eske på kjøkkenbordet. Det var en epilepsialarm, men den kunne han ikke hjelpe med: «Det er ikke noe vi monterer» sa han. Jeg spurte da hva det stod på esken slik at jeg selv kunne søke opp bruksanvisning på nettet og han leste «EpiMobile». Ergoterapeuten som var hos meg 29. mai visste ikke om det var en alarm man hadde rundt håndleddet eller i lommen da jeg spurte henne, for å se hvor mye kunnskap hun hadde om den alarmen hun skulle søke på. Jeg sendte min tidligere samboer en SMS hvor jeg spurte ham om hjelp. Han er mangeårig Android-bruker og er dessuten svært teknisk flink i tillegg til at han har litt kunnskaper om skjermleseren TalkBack for synshemmede. Han sa seg villig til å hjelpe meg og vi ble enige om å gjøre det over ferien når jeg hadde fått ordnet abonnement. Jeg endte til slutt opp med et abonnement hos Ice til 129 kr. i måneden.

Min tidligere samboer hjalp meg med å sette EpiMobile opp med de riktige innstillingene. Det store spørsmålet var jo om appen i det hele tatt var tilgjengelig for meg som blind og var avhengig av å bruke skjermleseren TalkBack som gjør at mobilen snakker og gir taletilbakemelding når jeg tar på skjermen. Den var overraskende tilgjengelig. Det er to grafiske elementer som ikke sier meg noen ting, men de har heller ikke noe informasjon å gi, så det mest fornuftige av leverandøren hadde vært å la de være usynlige for TalkBack. Når jeg beveget meg inn der jeg skulle skrive inn Alarmnummer og Backupnummer, begynte talen å stave ordet «alarmnummer» og «backupnummer». Noen slike barnesykdommer er det å finne i appen, men ellers fungerer den fint. Jeg stilte den inn på å ringe opp alarmnummeret etter 15 sekunder. Det er anbefalt at man ikke har noen PIN-kode på EpiMobile-telefonen og at man ikke installerer andre apper på telefonen enn EpiMobile i frykt for at den vil bli forstyrret av andre apper. Dessuten er det begrenset ytelses- og lagringskapasitet på Motorolaen som leveres (kun 1 GB minne). Jeg hadde litt problemer med å forstå først at når EpiMobile ringte opp et alarmnummer, var det viktig at anropet ble besvart i løpet av 30 sekunder og varte minst i 2 sekunder. Den som ble oppringt måtte selv avslutte samtalen, for dersom man lot tiden løpe ut de 30 sekundene, ble det ansett å være en mobilsvarer og EpiMobile ville forsøke å ringe opp alarmnummeret for andre gang og deretter backupnummeret to ganger dersom det samme gjentok seg.

Tirsdag 27. august kom to damer fra Responssenteret i Bergen kommune som skulle legge inn telefonnummeret til deres vakttelefon og teste at det fungerte. Jeg ville egentlig foreslå at jeg kunne gjøre det på egenhånd, men jeg tenkte at de trolig ville selv se at det fungerte. Når de kom fikk jeg testet at mitt eget lille «sikkerhetstiltak» mot at jeg ikke har PIN-kode på telefonen fungerte. Jeg har nemlig aktivert «skjermteppet», som jeg er vant til å kalle det fra iPhone-verdenen, i TalkBack som gjør at hele skjermen er svart eller mørklagt og talen snakker litt for fort til at de som ikke er vant til å forholde seg til kunstig tale ikke forstår den skikkelig. På denne måten håper jeg å unngå at folk får brukt telefonen dersom den skulle bli stjålet. Jeg hadde imidlertid glemt at «skjermteppet» var aktivt samtidig som jeg hadde glemt hvordan jeg deaktiverte TalkBack med hurtigtaster og jeg foreslo derfor at de kunne bruke telefonen med TalkBack aktiv, men det fikk de jo ikke til siden skjermen var svart. Vi klarte å «suspendere TalkBack» (som den faktisk sier når TalkBack avsluttes) via menyene under Innstillinger og Tilgjengelighet. I dag vet jeg at jeg skal holde inne Volum opp og Volum ned i noen få sekunder for å aktivere eller deaktivere TalkBack og for å aktivere eller deaktivere «skjermteppet», trykker du inn volum-knappene raskt tre ganger. Under testingen ble det jo klart at de på Responssenteret som tar imot alarmene ikke visste hvordan de skulle håndtere innkommende alarmer. De svarte «hallo? Hallo?» og la ikke på når de hadde besvart anropet selv om de hadde blitt forklart det. Først på 4. eller 5. forsøket gikk det. Jeg sa at det var viktig at de ansatte som tok imot alarmene visste hvordan slike alarmer skulle håndteres. De sa at det nå var mange nye ansatte og at de kanskje burde ta en repetisjon. Jeg noterte meg bak øret at det faktisk var viktig å bevisst utløse falsk alarm i blant for å teste om Responssenteret vet hvordan epilepsialarmer skal håndteres. Jeg er enda ikke overbevist om at alle ansatte kan det, for sist den ble utløst falskt for en ukes tid siden, ble den besvart med at en dame presenterte seg med fornavnet sitt og at hun var fra Responssenteret.

For falske alarmer har det blitt noen av. Det anbefales at man har sensoren på den hånden man f.eks. ikke pusser tennene med. Det forstår jeg så absolutt! Jeg har derfor hatt alarmen på min venstre hånd. Likevel har jeg måttet ha en del løpeturer gjennom huset for å avbryte alarmen i tide før den går til Responssenteret. Det kan nemlig enkelt gjøres ved at man trykker inn låsetasten på telefonen. Jeg har valgt etter å ha fått litt erfaring med alarmen å sette denne responstiden på maksimal tid, dvs. 30 sekunder, fordi det ble etter hvert så mange falske alarmer. Jeg fikk falsk alarm når jeg satt i rullestolen og trillet over et litt for humpete område i asfalten, skylte vann ut av en juicekartong, tok på deodorant, rørte i en kjele med hjemmelaget syltetøy, vispet eggedosis med elektrisk håndmikser og her kan du lese om da det var like før responssenteret sendte ambulanse hjem til meg fordi jeg fikk problemer med å besvare en oppringing fra de fordi jeg hadde hendene fulle av deig. Og alt dette selv om jeg forsøker å være forsiktig med den hånden jeg har alarmen på og jeg har alarmen på venstre hånd. Etter hvert har jeg funnet ut at i min hverdag er det vel mest praktisk å ikke ha på alarmen. Jeg er heldigvis ikke lenger sterkt plaget av plutselige anfall uten forvarsel. Jeg kjenner gjerne tegnene igjen når jeg står i fare for å kunne få anfall med å være det jeg kaller for «epilepsisliten» og da tenker jeg at jeg heller kan ta på meg alarmen når det oppstår. Jeg snakket med ei venninne jeg ble godt kjent med på Røysumtunet som har vurdert å skaffe seg en slik alarm lenge, og hun ble veldig skeptisk når hun hørte om alle de falske alarmene jeg har opplevd. Jeg ga henne det samme tipset som jeg bruker på meg selv siden hun også stort sett vet at hun får mest anfall om natten: Ta alarmen på om natten og ikke bruk den på dagtid. Selv er jeg glad for at Bergen kommune tilbyr seg å ta imot alarmene slik at jeg ikke trenger å belaste familie eller andre med den påkjenningen det må være med alle de falske alarmene. Jeg hadde i hvert fall selv følt det som en påkjenning og jeg vet at enkelte i min familie hadde følt på det som en påkjenning å ikke vite om det er falskt eller ekte denne gangen? Jeg fikk det tilbudet automatisk siden jeg også har trygghetsalarm i Bergen kommune. Jeg vil tro det er enheten i kommunen som håndterer trygghetsalarmer man skal henvende seg til dersom man ønsker å forhøre seg om sin egen kommune kan ta imot anrop fra EpiMobile. Jeg tenker at den som ikke intet våger heller intet vinner på å spørre.

Selv om man går for min løsning, å bruke alarmen ved behov, er det viktig å holde alarmen ved like og jevnlig kontrollere at den fungerer som den skal, for jeg vet jo aldri når jeg blir «epilepsisliten». Da må både telefon og sensor være oppladet. Sensoren er oppladet på en times tid, men telefonen bruker gjerne to-tre timer for å oppnå fullt batteri. Sensoren må lades en gang i døgnet mens telefonen trenger ladning ca. hvert 3. døgn. Jeg har valgt å sette en alarm på mobilen til et fast klokkeslett slik at jeg skal huske å lade sensoren hver kveld. Dette bør jo være på et tidspunkt man vanligvis er hjemme. Og så er det å huske å slå av alarmen når man er ute på noe da, for den alarmen høres selv om telefonen står på lydløs. Kan helt til slutt nevne at sensoren kommuniserer med telefonen via helt ordinær bluetooth-teknologi, noe som innebærer en rekkevidde på ca. 10 m. dersom den har klar sikt gjennom normale vegger.

Det er mange som spør om Apple Watch og SeizAlarm-appen. Jeg forsøkte denne en periode for ca. to år siden, men det endte med at jeg solgte klokken rimelig raskt før den sank i pris. Når en Apple Watch skal kontinuerlig overvåke eventuelle muskelsammentrekninger, bruker den mye strøm og du blir nødt til å lade klokken minst to ganger i døgnet. Det orket ikke jeg. Dessuten opplevde jeg at SeizAlarm-appen som svært ustabil og den varslet mildt sagt i hytt og pine. Mer i hytt og pine enn hva jeg har beskrevet over. Det ble til slutt slik at min daværende samboer ikke gadd å reagere når alarmen gikk for 10. gang på under 12 timer. Vi prøvde den ikke lenge og mulig jeg derfor har dårlig grunnlag til å uttale meg, men det jeg uttaler meg på har jeg godt grunnlag for.

Hvilke hjelpemidler bruker jeg mest i min hverdag?

I dag når jeg stod på kjøkkenet stilte jeg meg spørsmålet: Hvilke hjelpemidler bruker jeg mest i hverdagen? Jeg er nok litt gammeldags av meg og bruker fremdeles PC mer enn mobil. For meg føles det som et tilbakeskritt å skulle sitte å knote på den lille mobiltelefonen. Jeg vil heller sitte med et ordentlig tastatur med en god programvare hvor jeg f.eks. enkelere kan bytte mellom flere åpne programmer enn hva jeg synes jeg får effektivt til på iPhone. F.eks. om jeg skal kopiere noe på utklippstavlen på iPhone og lime det inn i en e-post, må jeg jobbe lineert på iPhone mens i Windows kan jeg jobbe mer dynamisk og «ha flere ting i hodet og fingrene på en gang».

Det hjelpemiddelet jeg nok bruker desidert mest er den 64 tegns og 40 tegns Esys Light leselisten jeg har til den stasjonære og bærbare PC-en (som er forhandlet av Provista) sammen med skjermleseren JAWS, selvsagt, som gjør at jeg får opp teksten på skjermen i punktskrift på leselisten og som tale. Jeg har også i flere år brukt konkurrenten SuperNova (som kan fåes med forstørrelsesprogram), men det kan ikke jeg nyttiggjøre meg av, men jeg nevner det fordi det er eneste skjermleser med integrert forstørrelse. JAWS kommer med ZoomText i tillegg i pakken Fusion som jeg personlig trolig hadde gått for om jeg var kombinert forstørrelse- og skjermleserbruker. Et annet program som er hyppig i bruk på den stasjonære PC-en er skanner og OCR-programmet OpenBook. Jeg bruker en del OCR-apper på iPhone som f.eks. tilgjengelighetsappen Seeing AI og ikke den fullt så kjente Voice Dream Scanner, men jeg ender alltid opp med å foretrekke å sitte med PC-en. Jeg ser visst ut til å bli en gammel, grå, fosil blinding som sitter og tviholder på mine gamle løsninger som fungerte på 90-tallet. Forskjellen nå og da er at de fungerer med færre tekstgjenkjenningsfeil. Jeg husker da jeg skannet inn bøker i 1997 med et skannerprogram i DOS som het OsCaR hvor jeg måtte gå inn å redigere i nesten hvert eneste ord pga. feil. I dag gidder man nesten ikke å redigere en side om det er feil på hver eneste linje nedover en side, så tidene har endret seg.

Ja, og for å utheve med store bokstaver at jeg er en fosil, må jeg jo få si at et hjelpemiddel jeg nesten bruker daglig er jo faktisk min gode, gamle Perkins punktskriftsmaskin på 4,8 kg laget i solid materiale. Jeg vil ikke ha den nye generasjonen plast de forhandlet en periode, men nå kan det se ut som at Adaptor har sluttet å forhandle den typen Perkins – og det kanskje med god grunn… De var jo noe elendig rakkel. Eneste fordelen jeg kunne se, var at den var lettere, men det veide ikke opp for alle ulempene det førte med seg.

Et lite hjelpemiddel jeg bruker flere ganger daglig, som jeg nesten ikke tenker over at er et hjelpemiddel engang, er det taktile armbåndsuret mitt. Der løfter jeg opp lokket og kjenner på viserne for å se hvor mye klokken er. Jeg hadde i flere år talende klokker, og legg merke til at jeg skriver «klokker» i flertall, for de ble utrolig fort ødelagt. Jeg nektet for øvrig å ha norsktalende klokker fordi de snakket ulidelig sakte. Den ene klokken etter den andre sluttet å snakke av en eller annen uopprettelig grunn og eneste løsning hjelpemiddelsentralen så var å bytte dem ut. Jeg orket ikke til slutt å ha en klokke som en gang i året måtte på service og derfor gikk jeg over til taktilt armbåndsur eller «punktklokke» som den ofte blir kalt blant blindinger. En annen ulempe med talende klokke, bortsett fra den som stilte seg selv via radiostyring, var at de talende klokkene fikk en liten forsinkelse i tiden hver gang jeg trykket på klokken for å høre hvor mye den var. Pr. trykk utgjorde ikke dette mye, men når det ble snakk om 150 trykk og det ble en forsinkelse på kanskje ett sekund pr. trykk, ble det jo snakk om en del sekunder etter hvert. Fordelen med punktklokke, er at jeg kan se på klokken uten at det forstyrrer andre, f.eks. når jeg sitter på møter/foredrag eller hvis det er mye støy rundt meg.

DAISY-spilleren min Plextalk Linio Pocket er også noe jeg bruker omtrent hver dag, om ikke så mange timer hver dag. Den var litt innviklet å lære seg, for den har ganske mange få knapper med mange funksjoner på hver knapp, men jeg brukte den samme metoden jeg sier at kursdeltakerne på iPhone-kurs må benytte: Tvinge seg selv til å bruke den nye iPhonen (eller nye spilleren i mitt tilfelle) og ikke ha den gamle telefonen med tvillingkort. Det var utrolig fristende å bruke min gode, gamle BookSense som jeg var vant til og hadde brukt siden 2009 og kjente ut og inn som min egen bukselomme, men jeg visste at om jeg gjorde det, gjorde jeg meg selv en stor bjørnetjeneste. Da ville jeg ikke lære å bruke Linio. «Learning by doing». Jeg prøvet og feilet, om og om igjen, og trykket på feil knapper, rotet meg inn i menyer, lette etter de riktige knappene og klødde meg i hodet, men gradvis løsnet det og BookSense ble aldri ladet opp igjen etter første helgen etter at jeg fikk Linio i hus rett før påske i år. Jeg vant og jeg lærte!

Nå har jeg snakket mye om hjelpemidler for synshemmede. Jeg opplever jo meg selv i hovedsak som blind, men jeg har jo også andre funksjonsnedsettelser. På kjøkkenet kommer de til syne ved at jeg har en arbeidsstol som jeg er blitt utrolig glad i. Den kan jeg justere høyden på og trille rundt omkring samtidig som jeg kan sette brems på om jeg ønsker det. Jeg har den for å avlaste rygg og hofter pga. smerter etter at jeg skadet meg under epilepsianfallet jeg hadde i november 2016. Et annet hjelpemiddel jeg bruker nesten hver mandag og torsdag når assistenten min er hos meg, er rullestolen min når vi skal ut i verden. Påmontert den manuelle sammenleggbare rullestolen har jeg den ledsagerstyrte hjelpemotoren Viamobil. Jeg har også en Horo-pute som er fylt med luft som er trykkavlastende og smertedempende. I tillegg til å sitte på denne i rullestolen, sitter jeg på denne puten f.eks. i kontorstolen også. Ofte når jeg er ute i verden og vet at jeg skal sitte på harde underlag, tar jeg med meg denne puten fordi jeg vet at jeg lett får smerter i rygg og hofter av slikt underlag selv etter bare et par minutters sitting.

Sitater fra pressemelding fra Synshemmedes Aksjonsuke

I dag var jeg på Smartcafé i fylkeslaget i Hordaland. Denne uken er det Synshemmedes Aksjonsuke hvor fokus er synshemmede og tilgjengelighet til apper. Blindeforbundet skriver bl.a. på sin nettside: «Mange er ikke klar over at blinde og svaksynte bruker smarttelefoner, nettbrett og PC. Derfor bestemte vi oss for å kartlegge hvor vanlig bruken er, og hva slags apper synshemmede bruker mest. En undersøkelse gjennomført av Opinion viser at 83 prosent av de spurte bruker e-post på mobilen ukentlig. 82 prosent bruker mobilen til å surfe på nett, mens 76 prosent bruker den til å sjekke sosiale medier. Så å si alle under 60 år bruker Vipps.»

Jeg var med og skrev pressemeldingen som gikk ut til en del aviser i Hordaland i dag og der står jeg sitert bl.a.: «Jeg bruker NRK-appene for TV og radio/podkaster på iPhone i tillegg til TV2 Sumo. E-post, Facebook og messenger er også noe jeg sjekker hyppig i løpet av en dag. Dessuten, har jeg med meg lydbokspilleren på mobiltelefonen. Lise sitter i styret i Norges Blindeforbund Hordaland og er en racer på ikt. Hun er frustrert over at tilgjengelighet til viktige apper og nettsider fremdeles ikke er en selvfølge, selv om det kommer seg betraktelig.»

«Vipps er en enkel måte å overføre penger på og det er svært praktisk å slippe og håndtere kontanter, for meg som ikke ser. Dessuten er det praktisk å bestille drosje fra 07000 Bergen Taxi-appen. Å betale billett i Skyss-appen har også blitt svært enkelt. Kort sagt, jeg bruker stort sett de samme appene som det du som seende gjør, men unntaket må været bilder og videoer, selv om jeg kjenner blinde som også bruker de appene aktivt.»

«De fleste appene er tilgjengelige nå, men skal jeg peke på noen av de jeg har nevnt som har potensiale for forbedringer på området når det kommer til tilgjengelighet for oss som bruker tale på iPhone, blir jeg nok dessverre nødt til å trekke frem TV2 Sumo og Bergen Taxi.»

«Digitaliseringen i samfunnet gir også nye unike muligheter for selvstendig liv for synshemmede. Det finnes også spesielt utviklede apper for synshemmede som hjelper meg som blind i hverdagen med å lese teksten på et ark, se forskjell på matvarer som har lik emballasje, som for eksempel om det er rømme eller crème fraîche jeg har i hånden.
På samme måte er det hvis man som synshemmet har behov for bistand eller seende hjelp til noe. Facetime og Skype (direkte videooverføring med seende) gir enorme muligheter til bistand som jeg bare kunne drømme om for ti år siden. For eksempel for å se om jeg har flekker på klærne, før jeg skal ut blant folk, lese på digitale displayer, se om jeg har fått glasur utover hele kaken eller hvis jeg leter etter noe jeg ikke finner i boden min, sier Lise på 36 år, som har vært blind hele livet og bor i Bergen.»

Jeg har jo tidligere skrevet om tilgjengelighetsappen for synshemmede Seeing AI som inneholder alt fra en enkel fargeindikator til mer avanserte funksjoner som strekkodeleser og tekstgjenkjenningsfunksjoner. Den appen har rett og slett revolusjonert livet mitt og det kan du lese om i det blogginnlegget jeg lenket til. Det gir muligheter jeg bare kunne drømme om for 8-10 år siden.

Jeg utvidet senest min lille horisont i går med Facetime da jeg fikk hjelp til å se på et digitalt display på et apparat. Det fungerte og jeg fikk gjort de innstillingene jeg var ute etter. Det er jo rett og slett fantastisk! Ja, man trenger ikke Facetime. som forutsetter at motparten har en iPhone, men det holder at motparten har Skype eller Messenger. Det finnes mange muligheter for direkte bildeoverføring her. Og man kan velge å bruke kameraet bak på mobilen for å få best kvalitet på videooverføringen.

På en Smartcafé samles vi kanskje mellom 10 og 15 blinde og svaksynte medlemmer av fylkeslaget som er interessert i smartteknologi, kanskje spesielt iPhone og iPad siden det er flest som bruker dette av synshemmede, og det tas opp ulike temaer og det deles erfaringer. I dag var temaet Appbibliotek som jeg skal skrive om i et senere innlegg.

Jeg ønsker teknologien velkommen

I dag satt jeg på venterommet til urologisk poliklinikk for å diskutere med urologen om jeg skulle gå for kontinent reservoar eller ikke. Jeg var i en samtale 28. februar og fikk svar på noen spørsmål og skulle gå hjem og tenke meg godt om. I dag ble svaret at jeg ønsket å se det litt an. Jeg ønsker i første omgang å se om Botox-injeksjoner kan være et alternativ i mitt tilfelle. Jeg har allerede fått time til vurdering og informasjon der 30. august.

Jeg hadde forberedt et skriv til urologen i dag med noen tanker og spørsmål. Mens jeg satt på venterommet oppdaget jeg at jeg hadde to sammenbrettede ark i vesken min og jeg visste ikke hvilket ark som var det riktige. Hvordan skulle jeg få vite det? Jeg hadde liten lyst til å spørre en villt fremmed person. Jeg fant frem telefonen og appen Seeing AI som jeg har beskrevet her som kan lese opp trykt tekst for meg. Jeg holdt telefonen over arket og valgte «Short text» og den leste noen ord ut av teksten. Det var alt som skulle til for at jeg skulle gjenkjenne teksten jeg selv hadde skrevet. Ganske så fornøyd med meg selv over å ha klart det helt på egenhånd kunne jeg brette sammen arket og vite at jeg leverte det riktige arket til urologen – uten å måtte be om hjelp fra seende. Dette hadde ikke vært mulig for bare tre-fire år siden. Teknologien gjør fremskritt og teknologien gjør oss blinde mer selvstendig. Det er viktig at vi tar den i bruk for at vi kan gjøre oss mindre avhengig av hjelp fra seende.

Her om dagen skulle jeg finne ut av noen smaker på noen næringsdrikker jeg skulle gi bort til min venninne som skulle gå på flytende kost og da brukte jeg også Seeing AI for å finne den riktige smaken. Riktignok måtte jeg klundre en hel del for å finne ut av hva som var den riktige avstanden for at kameraet skulle oppfatte teksten på embalasjen, men når det var gjort, gikk det jo strålende. Ting tar gjerne litt lenger tid, men har man litt tålmodighet og tåler å prøve og feile litt, går det stort sett fint. Og i de tilfellene det absolutt ikke går, har man jo Facetime eller Skype som et alternativ. Vi trenger ikke lenger å ha en person fysisk til stede hos oss lenger. Om eksempelis fargeindikatoren ikke sier riktig farge, om jeg er usikker på om jeg har fått vasket bort alle flekker på kjøkkenet, om jeg har sølt på meg selv, om glasuren er smurt utover hele kaken eller om gjærbaksten ser godt nok stekt ut, kan jeg bruke videooverføring. Jeg husker at for 14-16 år siden savnet jeg akkurat dette. Jeg forsøkte å gjøre det beste ut av situasjonen for 14-15 år siden med å ta bilde av f.eks. kaken jeg hadde forsøkt å bre glasur over, men det var jo ikke alltid at bildet ble vellykket. Nå kan personen i den andre enden si direkte «ta kameraet litt mer mot høyre» eller «litt nærmere».

Tilgjengelighetsappen Seeing AI

Det er en app jeg har blitt veldig glad i og som jeg ønsker å si noen or om – Seeing Ai. «AI» står for artificial intelligence eller kunsig intelligents på norsk. Appen er på engelsk, men ble tilgjengelig for nedlastning på det norske markedet i AppStore (IOS) fra sommeren 2018. Jeg vil hevde at Seeing AI er den viktigste tilgjengelighetsappen i min hverdag. Den har gjort meg mer selvstendig spesielt når det er behov for å lese tekst. Det er Microsoft som har utviklet den. Den bruker kameraet på mobilen til å tolke omverdenen og hjelper meg som blind til å forklare hva som vises i kameralinsen enten det bare er lys, farge, tekst, sedler, person eller omgivelser – eller en kombinasjon.

Jeg vil først bare nevne kort:

  • Person: Du kan ta bilde av en person og få en analyse. Da vurderer Seeing AI kjønn, alder, hårfarge og humør. Hvor mye denne er til å stole på er jeg ikke helt sikker på. Jeg er blitt tatt for å være en 13-åring og samboeren min en gammel mann… Og hvor praktisk nytteverdi har denne funksjonen utover en god underholdningsverdi? «Vent, jeg må ta bilde av deg, for jeg må finne ut hvem du er!» blir det neste blinde sier fremfor å si et imøtekommende «hei» for å kjenne igjen folk på stemmen.
  • Currency: Denne hjelper deg med å gjenkjenne sedler. Foreløpig er det kun indiske rubies, britiske pounds, euro, canadiske og amerikanske dollar. Men det blir stadig flere valuta som kan gjenkjennes – for et halvt år siden var det kun amerikanske dollar og euro om jeg minnes rett. Det er en flott mulighet om vi er på reise i et land og vi ikke er vant til sedlene, i den grad vi håndterer kontanter i det hele tatt. Jeg for min del bruker i hvert fall mer og mer kort og i svært liten grad kontanter, men jeg er særdeles lite ute og reiser utenfor Norges grenser.
  • Scene (preview/under utvikling): Denne har jeg personlig ingen erfaring med, men har hørt at den skal være imponerende bra. Man tar bilde/video av en situasjon og får beskrevet situasjonen. Et videoopptak jeg har sett fikk en opplyst hvilken bussnummer som kom kjørende.
  • Color (preview/under utvikling): Enkel fargeindikator. Etter min mening er denne for enkel og har for stor feilmargin til å kunne være funksjonell. Jeg endte i hvert fall opp med feil farge på garnnøstet mitt når jeg forsøkte å bruke denne fargeindikatoren. Jeg skulle ha hvit og endte opp med åkergult. Når jeg ikke har mulighet til å spørre noen, men kan ringe noen, bruker jeg Facetime eller Skype og får hjelp på den måten.
  • Handwriter (preview/under utvikling): Her kan Seeing AI tolke håndskrift. Denne har jeg ingen personlig erfaring med, men jeg har hørt at den i hvert fall skal være brukbar på engelsk tekst. Jeg har veldig sjelden håndskrevet tekst fremfor meg i det store og det hele. Det må i så fall være små lapper med et klokkeslett e.l. og om jeg får det, benytter jeg samme fremgangsmåte som ved fargeindikatoren – Facetime eller Skype.
  • Light: Dette er vel den enkleste funksjonen i Seeing AI, men slettes ikke den dummeste. Den piper en mørk tone når det er mørkt i rommet og jo mer lys jo lysere tone. En veldig grei funksjon for oss som ikke kan se lys både for å sjekke om lyset er på og for å sjekke i hvilken retning lyset står på.

Men, for å få Person en noe mer fortjent og forsvart plass enn hva jeg først ga den, kan den også være nyttig. I siste versjon som ble sluppet i dag, kan du faktisk bruke Seeing AI til å tolke bilder du har liggende på telefonen eller som du kommer over på internett og den kan gjenkjenne deg selv eller kjente personer. Du kan lese blogginnlegget utgitt av Microsoft What’s new with Seeing AI?» eller den norske oversettelsen «Hva er nytt i Seeing AI?».

I tillegg har appen strekkodeleser, mulighet for å lese korte tekster og gjenkjenne dokumenter. Disse skal jeg omtale mer detaljert i dette blogginnlegget. For å høre en demonstrasjon av de ulike funksjonene til appen, har Morten Tollefsen laget dette lydopptaket hvor han viser appen i praktisk bruk.

Product (strekkodeleser)
Strekkodeleseren brukes kanskje mest på kjøkkenet for å skille produkter med lik emballasje. Det kan eksempelvis være matfløte/kremfløte/kaffefløte, ulike typer melk, ulike typer yoghurt, ulike typer biola, lettrømme/crème fraîche/kesam i ulike smaker, ulike typer Cola, ulike typer mel, ulike typer hermetikk, ulike typer poser med halvfabrikata (pulverposer) osv.

For å bruke strekkodeleseren må vi lære oss å finne strekkoden og lære oss å bruke kameraet riktig. Det kan være lurt å øve seg litt sammen med en som ser som kan veilede litt. Det var – er fremdeles – en del ting jeg i hvert fall ikke tenker over. Hvor er strekkoden? Den er ofte på baksiden av emballasjen, langs skjøten, på undersiden eller på siden om produktet er lite. Like viktig som å vite hvor strekkoden kan være, er å vite hvor strekkoden ikke er. Den er eksempelvis ikke på forsiden hvor det er produktets blikkfang. Når du skal lære å bruke kameraet, kan du tenke over avstand mellom kameraet og produkt, huske posisjon, forstå lysforhold, forstå emballasjens form, refleks og farge og hvordan alt dette påvirker hverandre. Det du skal huske på er at blank/reflekterende emballasje kan være vanskelig. Appen bruker blitz om det blir nødvendig, men det beste er om du bruker lys i rommet. Det gjør ingenting at emballasjen står på hodet. Omvendt kontrast har lite å si. Det viktigste er at det er tydelige bokstaver og ikke for snirklete skrift med for mye mønster.

Appen lager lydsignaler for å gi signaler om hvor langt unna sentrum i skjermbildet du er i å ha strekkoden. Den tar bildet automatisk når den mener at bildet er i fokus og er godt nok. Når den har tatt bildet, vises bildet på skjermen. Bildet/strekkoden gjenkjennes i en database. Bildet som vises på skjermen må lukkes før et nytt bilde må tas. Det sliter i hvert fall jeg litt med å skulle huske hver gang.

Jeg oplever at strekkodeleseren ikke er nøyaktig nok. Eksempelvis skiller den ikke på laktosefri og vanlig melk eller sukkerfritt og vanlig syltetøy. Man har en knapp som heter «More info» hvor det ville være naturlig at slik informasjon som dette ble lagt, men den knappen er inntil videre ikke tilgjengelig. Noe er man også nødt til å vite på forhånd, som blå gjær som brukes i brødbakst, den heter bare «original» i databasen sist jeg forsøkte.

Jeg synes det tar mye tid å bruke strekodeleseren i hverdagen. Jeg har ikke tid til å bruke ett minutt eller to for å finne ut om noe er kremfløte eller matfløte. Derfor har jeg funnet ut at short text er mye mer effektivt og gjør samme nytten.

Short text – OCR «in live»
Om jeg skal finne ut om jeg holder en matfløte eller kremfløte i hånden, som jo har helt lik embalasje, velger jeg modusen Short text. Da fungerer kameraet som en direkte OCR-skanner. Talen vil lese opp det som vises i kameraet akkurat der og da. Det som er viktig da, er at du er ganske stødig på hånden, for ved den minste bevegelse tolkes bildet på nytt og talen vil lese opp bildet på nytt. Om gjenstanden ikke er for høy, som f.eks. en putt kremfløte, yoghurtbeger eller rømmebeger, kan du støtte telefonen og begeret mmot bordplaten slik at begge deler holdes stille.

Det er først etter at jeg fikk prøve Seeing AI at jeg forstod hvor mye tekst som egentlig står på et produkt. Det står jo eksempelvis oppskrifter bakpå posene med havregryn, ulike meltyper, tips til tilberedning av gryter osv. Og når jeg skal lese teksten bak på en hel pose, eksempelvis en pose med havremel eller hvordan jeg tilbereder en gryte, bruker jeg modusen Document.

Document – til lengre tekster og dokumenter
Jeg kom med eksempelet nå på å bruke det til å lese bakpå gryter, melposer osv. Dette vil jeg nok i utgangspunktet si er en nødløsning. Om du skal lese teksten bakpå, vil jeg nok anbefale deg å bruke en skanner og et OCR-program som f.eks. OmniPage eller OpenBook (sistnevnte er spesiallaget med tanke på synshemmedes behov) fordi det gir en mer nøyaktig gjengivelse av teksten enn det Seeing AI klarer å gi nettopp fordi du bruker en skanner som gir bedre avlesningsforhold. Min erfaring er i hvert fall at teksten blir leselig om jeg legger godviljen til, men det blir en hel del feil og i blant må jeg gjette meg til hva som skal stå.

Men noe Documents er mer egnet til, er å lese et ark eller en bokside med tekst.Det gjør den så og si feilfritt. Om arket har kolonner, forsøker den også å tolke det, men så vidt jeg vet finnes det ikke noen innstillinger hvor man kan velge om den skal gjenkjenne kolonner eller ikke. Det kan være fint at den gjenkjenner kolonner om du skal lese en avisartikkel eller bok med kolonner, men det er ikke like praktisk om du ønsker å lese et program du har fått utdelt på et seminar du er deltaker på.

Når du skal ta bilde av f.eks. et ark, legger du arket på bordet fremfor deg og det er helst en fordel om lysforholdene er gode. Hold telefonen over arket og talen vil gi deg instrukser om du skal ta telefonen mer til høyre, mer til venstre, lenger oppover eller nedover for å få hele arket i fokus. Når hele arket har fått fokus i kameraet, blir bildet automatisk tatt og noen sekunder senere dukker det opp på skjermen som et dokument. Om dokumentet har overskrifter, er disse også kodet som overskrifter i den gjenkjente teksten. Du kan lese teksten med VoiceOver f.eks. ved å sveipe med en finger mot høyre og venstre slik at den leser avsnitt for avsnitt eller linje for linje, noe du velger i rotoren til VoiceOver. En enklere måte å lese dokumentet på er å dra en finger sakte nedover skjermen og talen vil lese opp det du har under fingeren. Når du kommer til bunnen, blar du til neste skjermbilde med å sveipe med tre fingre fra bunnen av skjermen mot toppen.

Laste ned og installere Seeing AI
For den som nå lurer, så finnes Seeing AI foreløpig kun for iPhone, men det er nok snakk om at den skal komme for Android-telefoner en gang i fremtiden.

For å laste ned Seeing AI, må du gå inn i AppStore. Gå inn på fanen Søk og skriv inn «Seeing» og velg deretter søkeforslaget «Seeing AI». Da får i hvert fall jeg opp Seeing AI som det første treffet. Deretter lastes appen ned som en hvilken som helst annen app, dvs. at du må ha en iCloud-konto med passord, og når den er lastet ned og installert velger du Åpne.

I aksjon med iPhonen igjen

I dag fikk jeg leselisten (punktskriftdisplayet) på 24 tegn som jeg bruker opp mot iPhonen tilbake fra service. Jeg synes det er ordentlig klønete saker å skulle famle seg rundt på skjermen bokstavelig talt i blinde. Jeg strevde med å få telefonen til å finne leselisten. Jeg fikk hjelp av samboeren min til å resette telefonen og leselisten ble funnet. Endelig ett skritt videre! Vi fant etter hvert ut at vi måtte koble til leselisten under Punktskrift i VoiceOver-menyen.

Når jeg trykker på navigeringstastene på leselisten, flyttes jeg f.eks. bortover langs rekkene med ikoner for de ulike appene, fra melding til melding i meldingslisten, fra felt til felt eller fra knapp til knapp når jeg skal legge til en kontakt osv. Jeg kan dobbeltklikke på markørhenterne for å kunne skrive inn noe i et redigeringsfelt, men om jeg trykker én gang på markørhenteren helt til venstre gir dette samme resultat.

En «ny dimensjon» i iPhone-verdenen

I påsken hadde jeg et hyggelig besøk av et synshemmet vennepar av meg og jeg fikk hjelp til å koble opp min lille leselist VarioConnect på 24 tegn med punktskrifttastatur opp mot iPhone, og iPhone fikk straks «en ny dimensjon» for meg. Det jeg synes har vært mest trøblete med å bruke iPhone, er å skulle forholde seg til en visuell skjerm. Finne frem til knapper som kan være både her og der. Etter hvert så jeg et mønster, f.eks. at avbryt/tilbake oftest var oppe i venstre gjørne, at OK/ferdig var øverst i høyre hjørne osv. Jeg synes også skrivingen var noe trøblete eller mest kjedelig fordi det var ineffektivt, selv om det gikk noe raskere etter litt trening. Dessuten synes jeg hele tiden det var et tilbakeskritt å kun kunne kjøre ett program om gangen. Det var (og er fremdeles) som å gå tilbake til DOS 6.0 i mitt hode.

Når jeg brukte leselisten opp mot iPhone, var det enkelt å flytte seg rundt på skjermen og jeg kunne skrive inn tekst med punkttastaturet (8-punktstastatur). Det er mange hurtigtaster på leselisten som jeg selv kan lære meg under «VoiceOver Øving». Nå har jeg tatt i bruk apper som Google, Twitter, Messenger og Facebook. Kanskje Lise blir aktiv på sosiale medier?

Seminar om iPhone

I dag var jeg med å arrangere et seminar og workshop i regi av Interessegruppe for Synshemmede EDB-brukere (ISE). Der ble det innledet med en times innlegg om generell bruk av iPhone og deretter 15 min. med orientering om hvordan blinde kan bruke iPhone. Deretter ble gruppen delt i to med blinde i en gruppe og svaksynte i en annen gruppe. Det viste seg at gruppen for blinde med fordel kunne vært delt i to.

Det ble servert pizza. Praktisk ble det godt gjennomført med 16 personer som så dårlig. Våre to hjelpere orienterte om hva som var på de ulike pizzaene og deretter gikk de rundt og de som ville ha den pizzae det ble gått rundt med, sa i fra om dette. Jeg hadde også bakt en sjokoladekake som noe å bite i til kaffen etter pizza. De to hjelperne var også behjelpelige med servering av brus, kaffe og te under hele arrangementet. Det var bare å rekke opp en hånd, så kom hjelperne stille og nesten usynlig bort for å høre om behovet. Jeg må berømme våre to hjelpere.

Etterpå var det workshop igjen, men denne falt litt sammen. Det ble heller til at folk satt og snakket. Om de snakket om iPhone eller ikke vet jeg ikke. Noen måtte rekke fly og buss.

Alt i alt et vellykket arrangement.

I ferd med å bli venn med iPhonen

Jeg har nå hatt min iPhone i ganske nøyaktig to år. Først de siste dagene har jeg klart å bli venner med den. Nå ser jeg at den har andre muligheter enn kun å sende SMS og ringe med. Jeg har lastet ned Yr fra NRK og kan sjekke været her og der. Jeg har lastet ned en app som heter «TapTap see», hvor jeg kan ta et bilde og få det analysert. Den klarte å skille mellom kremet blomkålsuppe og bergensk fiskesuppe. Den skiller mellom vanlig Cola og Cola Zero. Den så at krydderet var sitronpepper. «En hund som sover» fikk jeg til beskjed når jeg tok bilde av Flex i sengen. I dag rotet jeg meg litt bort på tannlegekontoret, og brukte «TapTap see» til å finne døren. Jeg tok bbilder rundt meg, og: «Svart innrammet glassdør lukket» fikk jeg beskjed om. For seende er denne appen bare morsom, men for meg er den et nyttig verktøy. Jeg gleder meg til å teste videre i app-verdenen. Nå er iPhone gøy!

Status: iPhone i 14 måneder

Nå har jeg hatt min iPhone i 14 mnd. Jeg er fremdeles ikke overbevist, men bruker den mest fordi jeg ikke har andre alternativ. Å ringe, bruke kontaktregisteret og lese meldinger går fint, men å skrive er noe herk. Har vurdert å skaffe meg et bluetooth-tastatur, enten QWERTY-tastatur eller punkttastatur, men det har ikke blitt til det enda – og jeg vet ikke om .det vil bli noe heller. Enda en «dings» man må huske å lade opp…

Jeg fikk heldigvis solgt Mac-en for 6.000 kr. til en bekjent av meg. Det virket som han ble fornøyd, og ingenting er bedre enn det. Mac var rett og slett ikke min greie, like lite som jeg tror at iPad er min greie. Hvorfor ha iPad når man datamaskin som bare stårog samler støv. ha en PC med et godt tastatur å skrive på? Jeg kjøpte Mac-en for 7.500 kr. og oppgraderte den med SSD-disk og 8 GB RAM, så jeg har tapt litt, men 6.000 kr. er jo bedre enn å ha en Mac stående og samler støv.

Det tar litt tid…

I mai kjøpte jeg meg en iPhone. Jeg har hatt den i tre måneder. Jeg strever med tålmodigheten til å sitte lenge av gangen og prøve på nytt og på nytt. Jeg synes jeg skriver lite effektivt på den og jeg skriver ofte feil. Jeg vil koble telefonen til PC-en for å redigere kontaktregisteret, for jeg skriver så mye feil. Men når iTunes skal tas i bruk, gjøres det på en virtuell maskin. Jeg vil ikke ha iTunes installert på min hoved-PC.

Jeg er en enkel bruker av iPhone. Jeg har nylig tatt i bruk kalenderen og jeg bruker kontaktregisteret og siste brukte. Og selvsagt SMS, men jeg er ikke flink til å skrive SMS. Det tar så voldsomt lang tid. Da går det raskere å logge seg inn på Telenors nettsider og gjøre det derifra.