Hvordan korrigere feilinformasjon?

I arbeidet med masteroppgaven min kom jeg over et interessant upublisert manuskript som handlet om hvordan feilinformasjon og misoppfatninger spres i samfunnet, og hvordan man bør gå frem for å bekjempe feilinformasjonen. Artikkelen blir nå publisert i nyeste nummer av tidsskriftet Psychological Science in the Public Interest, og jeg tar den derfor frem her.

En stund etter at jeg hadde begynt å lese gjennom artikkelen slo det meg at jeg kjente litt til forfatterne fra før, i hvert fall to av dem. John Cook driver nettstedet skepticalscience.com, som handler om vitenskapen bak global oppvarming, noe som har vært en svært god ressurs å ha i diskusjoner med såkalte klimaskeptikere. Han har derfor mye erfaring med myter og myteknusing (populært kalt «debunking»). Sammen med psykolog Stephan Lewandowsky ga han ut det lille heftet «The Debunking Handbook» (gratis) i 2011. Den nye artikkelen er mer akademisk i stilen, men innholdet er stort sett det samme.

Obama, vaksiner og Listerine

Som et bakteppe begynner artikkelen med flere eksempler på utbredt feilinformasjon, fra myten om at Barack Obama er født utenfor USA og dermed ikke har rett til å være president, til frykten for vaksinasjon i deler av befolkningen etter at det i 1998 ble påstått en sammenheng mellom vaksiner og autisme. I begge disse tilfellene ble påstandene tilbakevist kort tid etter, men selv mange år senere fortsetter mange å tro på dem. På slutten av 1970-tallet kjørte produsentene av Listerine en reklamekampanje verdt 10 millioner dollar i 16 måneder for å dementere sine tidligere påstander om at Listerine hjelper mot forkjølelse og vondt i halsen. Men senere undersøkelser fant at over halvparten av brukerne fortsatte å tro på påstandene.

Disse eksemplene illustrerer altså godt hvor vanskelig det er å korrigere feilinformasjon. Men hvorfor er det så vanskelig? I artikkelen presenteres to grunner til hvorfor misoppfatninger er så vanskelig å nedkjempe: Kognitive faktorer som gjør at feilinformasjon klistrer seg, og pragmatiske faktorer som gjør det vanskelig å nå fram med et budskap til målgruppene.

De presiserer at det å være feilinformert ikke er det samme som det å være uvitende. Uvitenhet er fravær av relevant kunnskap, og kan faktisk være mindre alvorlig enn misoppfatninger. Misoppfatninger holdes ofte med sterk overbevisning, og de som tror de vet mest om noe, er ofte de som vet minst (dette er den såkalte Dunning-Kruger-effekten).

Hvordan oppstår feilinformasjon?

Artikkelen tar for seg fire kilder til feilinformasjon: Rykter og fiksjon, myndigheter og politikere, egeninteresser og media. Dette er prosesser på samfunnsnivå. Men hva er det som får folk til å tro på enkelte ting, men ikke på andre ting?

I hverdagen går vi stort sett ut ifra at det folk sier er sant. Noen mener at for i det hele tatt å forstå noe, må vi tro at det er sant. Med mindre et budskap er svært lite troverdig, kreves det ofte mye motivasjon og konsentrasjon for å holde seg mistroisk til det.

Going beyond this default of acceptance requires additional motivation and cognitive resources: If the topic is not very important to you, or you have other things on your mind, misinformation will likely slip in.

Vi foretrekker som regel altså å akseptere informasjon fremfor å være skeptisk, særlig hvis det er informasjon om et tema som ikke er personlig viktig for oss. Når vi så vurderer sannheten ved informasjon, legger vi som regel merke til noen få ting: Er informasjonen forenlig med andre ting jeg tror på? Er denne informasjonen innbyrdes sammenhengende, og danner brikkene en plausibel historie? Kommer informasjonen fra en troverdig kilde? Tror andre på den? 

Vi har lettere for å akseptere informasjon når denne samsvarer med andre ting vi tror på, og informasjon som strider imot det vi tror på vekker ofte negative følelser. Dette hever sannsynligheten for at vi tror på feilinformasjon. Troverdige kilder gjør selvsagt budskapet mer overbevisende, men også upålitelige kilder er ofte innflytelsesrike. Og dersom mange mange tror på noe, tenker vi lett at det må være noe i det.

Korreksjon av feilinformasjon er vanskelig

Hva er det som gjør at folk fortsetter å tro på myter og vrangforestillinger selv etter langvarige og intensive forsøk på å tilbakevise dem? Lewandowsky et. al refererer til dette som The Continued Influence-effect, dvs. at feilinformasjon fortsetter å påvirke oss selv etter at vi har hørt og forstått den riktige informasjonen. En forklaring på denne vedvarendende påvirkningen av feilinformasjon er såkalt ”retrieval failure” eller svikt i kontrollerte hukommelsesprosesser. En annen forklaring kan være sosial reaktans – vi liker ikke å bli fortalt hva vi skal tenke, og derfor avviser vi forsøk på dementier. Myteknusing kan også gi en boomerang-effekt, dvs. at de kan virke mot sin hensikt, slik som når røykekuttkampanjer kan få noen til å røyke mer. En misoppfatning om misoppfatninger er at de kan reduseres ved bare å gi folk mer informasjon. Man kan faktisk gi for mye informasjon.

Refuting misinformation involves dealing with complex cognitive processes. To successfully impart knowledge, communicators need to understand how people process information, how they modify their existing knowledge and how worldviews affect their ability to think rationally. It’s not just what people think that matters, but how they think. (Debunking handbook, s.1)

Skepsis er nøkkelen!

Forskningen på holdninger og verdensbilder indikerer at tiltak for å avkrefte myter må skreddersys til den spesifikke målgruppen, slik at opplysningene er i samsvar med målgruppens verdensbilde.  En persons verdensbilde og tro kan gjøre en særlig utsatt for feilinformasjon, men skeptisisme trekkes frem av Lewandowsky et. al som en grunnholdning som kan beskytte mot misoppfatninger. Mistillit kan ha en positiv funksjon – det får oss til å se mer nøye på det som skjer rundt oss og til å bli oppmerksom på uforutsette hendelser.

Taken together, these results suggest that a healthy sense of skepticism or induced distrust can go a long way in avoiding the traps of misinformation. These benefits seem to arise from the nonroutine, “lateral” information processing that is primed when people are skeptical or distrustful (Mayer & Mussweiler, 2011; Schul et al., 2008).

For konkrete tips om hvordan man effektivt kan rette opp feilinformasjon anbefaler jeg å lese artikkelen eller Debunking Handbook. Her har jeg tatt med en grafisk fremstilling av noen teknikker, hentet fra artikkelen til Lewandowsky et. al:

Forfatter: Erik Arnesen

Public health nutritionist living in Oslo

Legg igjen en kommentar

Fyll inn i feltene under, eller klikk på et ikon for å logge inn:

WordPress.com-logo

Du kommenterer med bruk av din WordPress.com konto. Logg ut / Endre )

Twitter picture

Du kommenterer med bruk av din Twitter konto. Logg ut / Endre )

Facebookbilde

Du kommenterer med bruk av din Facebook konto. Logg ut / Endre )

Google+ photo

Du kommenterer med bruk av din Google+ konto. Logg ut / Endre )

Kobler til %s