StatpedMagasinet 2–2018

Dypdykk i ASK-jungelen

Fagfolk fra alle verdensdeler var med på 18th Biennal Conference of ISAAC i Australia i sommer. Blant de drøyt 1000 deltakerne var Anne Ekerbakke og Kristine F. Godtfredsen fra Statped. – En opplevelse å være tett på den aller nyeste forskningen og de aller fremste forskerne, sier de to. Her gir de noen smakebiter fra konferansen.

Anne EkerbakkeKristine F. Godtfredsen

Hvordan ASK implementeres i skolen ble belyst fra flere skoler fra forskjellige deler av verden. Felles for dem var utgangspunktet i det vi kaller «spesialskole», hvor forholdene er ganske annerledes enn i norsk skole. Likevel, vi kan alltid trekke lærdom av andres erfaringer. Betydningen en «whole-school approach» ble løftet frem – det vil si at hele skolen blir involvert i arbeidet med å legge til rette for bruk av ASK for dem som trenger dette. Kompetanseheving av hele personalgruppen – både skoleleder, lærere og assistenter blir sett på som en avgjørende faktor for suksess.

Project core

Penny Hatch og Lori Geist fra UNC Chapel Hill i USA fortalte om praktisk arbeid i klasserommet for å øve på lese- og skriveferdigheter hos elever som bruker ASK. De presenterte prosjektet «Project core», hvor et e-læringsopplegg for leseferdighet er sentralt i arbeidet. Her kan alle interesserte fritt få tilgang på flere ulike moduler som beskriver hvordan systematisk lese- og skrivetrening kan foregå. Materiellet er på engelsk og ligger på nettsiden www. project-core.com

Tankeleseren

David Goldberg fra Global AAC snakket om brain-computer interface, på norsk hjerne-datamaskin grensesnitt. Kort sagt om hvordan signaler fra hjernen kan brukes som betjeningsmulighet. Det kan i nær fremtid bli en mulig kommunikasjonsløsning for mennesker som har vansker med å bruke berøring eller øyepeking, mente Goldberg. I dag fungerer teknologien slik: Den som skal bruke betjeningsløsningen får på seg en «hette» med sensorer. Denne kalibreres for at man skal være sikker på at den oppfatter riktige signaler, en prosess som tar om lag en time. I presentasjonen brukte Goldberg en forsøksperson til å betjene et tastatur, som ble vist på en skjerm. Personen tenker på en bokstav. I løpet av noen få sekunder går det flere glimt over skjermen. Med dette oppfatter datamaskinen nøyaktig hvilken bokstav personen tenker på. Dette handler om utrolig små, svake, elektroniske signaler som blir oppfattet i sensorene og sendt til datamaskinen. Gjennom en analyse av mønsteret for når hjernen ble aktivert, finner maskinen ut hvilken bokstav personen tenkte på. Fiffig, ikke sant? I dag forutsetter bruk av denne teknologien at du kan se og ha kognitive ferdigheter til å forstå og utføre en handling.

Digitale assistenter

Yoo Sun Chung fra George Mason-universitetet i USA presenterte et forskningsarbeid om ASK og bruk av digitale assistenter. Digitale assistenter er nok i dag mer i bruk i den engelskspråklige delen av verden, men dette er under utvikling i Norge også. I forelesningen ble programmer som Google Assistant, Androids «Alexa» og Apples «Siri» trukket frem. Disse digitale assistentene kan blant annet brukes til å søke opp informasjon, underholdning og også kobles mot omgivelseskontroll. De har undersøkt i hvilken grad disse «assistentene» responderte på typisk syntetisk tale som ASK-hjelpemidler produserer. Konklusjonen var at dette absolutt kan være et hensiktsmessig verktøy for å gjøre ASK-brukere mer selvstendige.

TEKST: ANNE EKERBAKKE OG KRISTINE F. GODTFREDSEN

Fakta

ISAAC er en forkortelse for International Society for Augmentative and Alternative Communication. Det er en internasjonal medlemsorganisasjon som arbeider for å bedre kommunikasjonsmulighetene for barn og voksne med omfattende kommunikasjonsvansker. ISAAC er en ikke-statlig organisasjon med status som rådgivende organ til FNs økonomiske og sosiale råd (ECOSOC).

Neste Biennal Conference of Isaac skal arrangeres på Riviera Maya i Mexico i 2020. 

www.isaac-online.org

Side 16 av 21