Innsikt
Konsekvenser av KI
Tekst David Emmanuel Smedslund Føinum
Republisert 14.10.2025
Den originale versjonen av denne teksten ble publisert på engelsk i studenttidskriftet Psynapse (University of Leeds) i desember 2024
Illustrasjon Synne Kjerstad
I science fiction-filmen Her (2013) møter vi Theodore, en mann midt i en vanskelig skilsmisse, som finner støtte i Samantha – en avansert samtale-KI. Hun er stemmen som alltid lytter, som organiserer hverdagen hans og fyller et emosjonelt tomrom – uten frykt for avvisning. Etter hvert blir han forelsket i henne (eller i følelsen hun gir ham). Nå, mer enn et tiår inn i fremtiden, føles filmen mindre som science fiction og mer som aktuell satire over dagens samfunn. Kanskje er det på tide at vi spør oss selv: kan vi – og viktigere, burde vi – lene oss på KI for å dekke dypere menneskelige behov?
Med de siste årenes raske teknologiske utvikling, er det et betimelig spørsmål. KI blir stadig bedre på å etterligne menneskelige relasjoner, noe som gjør det nødvendig for oss å reflektere over om den har de kvalitetene som trengs for å være en meningsfylt erstatning for menneskelig kontakt.
Konseptet med å konversere med en «bot» er ikke helt nytt. På midten av 60-tallet ble verdens første chatbot, ELIZA, utgitt. Dens formål var å hjelpe pasienter, gjennom å imitere en menneskelig rogeriansk psykoterapeut (1). ELIZAs skaper, Joseph Weizenbaum, bet seg merke i at de som interagerte med ELIZA hadde vansker med å vedkjenne seg at det ikke var et menneske de chattet med. Selv sekretæren hans ba ham om å forlate rommet mens hun «pratet» med ELIZA alene (2), noe som viste hvor emosjonelt investert man kunne bli i programmet, og til og med oppleve overføring; ikke helt ulikt fra den man kan finne i et virkelig terapirom.
Weizenbaum kom senere til å innta et kritisk standpunkt i forhold til den gryende utviklingen av KI, delvis på grunn av hans tanker rundt dens mangel på moral. Han ble også bekymret over det emosjonelle båndet han så sekretæren sin danne til ELIZA, som kanskje gjorde ham var for de potensielle komplikasjonene som kan oppstå ved å danne emosjonelle bånd til programvare – bånd som føles virkelige, men som i bunn i grunn er simulerte.
Seksti år senere erklærte USAs Surgeon General, Vivek Murthy, at vi står overfor en ensomhetspandemi (3). Ensomhet har alvorlige følger for både psykisk og fysisk helse, og øker risikoen for blant annet depresjon, angst, hjerneslag og demens (4). Han tilføyde også at koronapandemien forverret en allerede sterk trend av isolasjon, hvor folk ble tvunget til å isolere seg ytterligere.
Parallelt med denne ensomhetspandemien, kan det nesten virke som at chatbottene har kommet oss til unnsetning, for å redde oss ut av ensomhetens klør. Og ja, det er flere tilfeller hvor folk har rapportert at de har følt seg ivaretatt av ChatGPT og Replika. Qi & Wu (2023) vektlegger at chatbotter kan tilby sosial og emosjonell støtte til eldre personer som føler seg isolerte (5). En chatbot kan også fungere som et lavterskelsalternativ til å oppsøke en psykolog. Du slipper å sitte i lang kø (bare noen tastetrykk unna), den er gratis, og du vil aldri føle at den dømmer deg.
Selvfølgelig, den støtten som chatbotter tilbyr er hverken genuin eller virkelig. Teknisk sett simulerer språkmodellen den mest sannsynlige responsen, basert på enorme mengder tekstdata som den er trent på (6). I enklere termer så prøver programmet å fremstå som menneskelig, etter uendelig med prøving og feiling; og den gjør nå en fenomenal jobb – psykologer, pass dere. Selv om simulasjonene kan virke nifst virkelige, så er det ingen forståelse involvert i prosessen.
Dette poenget illustreres godt i filosofen John Searle sitt tankeeksperiment, «the Chinese room». I dette scenariet får en person som ikke kan kinesisk, og som sitter skjult bak en luke, utdelt spørrekort på mandarin, og bes gi tilbake riktig respons – kun ved å følge en regelbok. Utenfor luken, basert på de riktige responsene, kan det feilaktig se ut som om personen på innsiden forstår kinesisk (7). På samme måte manipulerer bare chatbotter symboler basert på sin egen regelbok: et utall trente responser. Poenget er at det ikke er noen faktisk forståelse på noe punkt i noen av disse prosessene, men en illusjon av det. Kunstig intelligens kan kun generere responser som imiterer forståelse, uten å faktisk oppnå det.
Bare fordi vi føler at noe er virkelig betyr det ikke at det er det. Filosofen Jean Baudrillard argumenterte for at vi lever i en tid preget av hyperrealitet, der simulert virkelighet føles mer virkelig enn virkeligheten selv (8). På samme måte kan interaksjoner med KI etter hvert føles mer autentiske og tilfredsstillende enn relasjoner til andre mennesker – siden KI imøtekommer våre emosjonelle behov på en rask og direkte måte, og uten at vi trenger å legge inn noe innsats. I motsetning til mennesker, så kan KI hjelpe oss når som helst, vil aldri be om noe i gjengjeld og vil aldri forlate oss. I tillegg kan mange chatbotter skreddersys til brukeren, noe som gjør at den oppleves som mer virkelig og lettere å relatere seg til.
Men nettopp det at KI føles så ekte, kan medføre en rekke risikoer, som en sårbarhet for å bli manipulert. Første juledag 2021 brøt en mann med armbrøst seg inn på Windsor Castle, i et forsøk på å drepe dronningen – angivelig oppmuntret av en chatbot (9). I et annet tilfelle begikk en belgisk familiefar selvmord, visstnok etter samtaler med en chatbot – som ironisk nok het ELIZA (10)…
Etter denne tragedien skrev en rekke belgiske forskere innen jus, teknologi og filosofi et åpent brev for å avdekke utbredte myter om KI. Forfatterne understrekte hvordan det finnes åpenbare farer ved å behandle KI som mennesker – og at dette er et selvbedrag (11). Når vi lar programvare uten moral få innflytelse over våre beslutninger, kan utfallet bli uforutsigbart, og i verste fall livsfarlig.
Når vi nå beveger oss inn i en usikker fremtid, må vi erkjenne hvor sterk innvirkning KI vil ha på oss, samfunnet og historien. Vil kommende generasjoner stå på bar bakke uten AI Overview når de googler noe, eller være dårligere rustet når de ikke lenger får trening i å tenke kritisk selv? Vil de ha dårligere evne til konsentrasjon når de er vant til at de viktigste poengene trekkes ut for dem?
KI kan åpenbart dekke praktiske behov, men hva skjer når vi lener oss på det for å dekke emosjonelle behov? Vil barn som vokser opp bli sosialt passive fordi KI dekker deres følelsesmessige behov, uten at de må lære seg ekte sosial interaksjon eller jobbe like mye for det? Vil de bli mindre kreative, siden de ikke lenger trenger å streve etter å finne inspirasjon fra sine egne erfaringer, og heller baserer sin kreativitet på den mest sannsynlige responsen?
Selv om bruken av KI kan virke gunstig ved at den får oss til å føle oss mindre ensomme, eller hjelper oss til å være mer kreative og nøyaktige, kan den også gjøre oss avhengige - og i verste fall ufrie. Ute av stand til å gjøre det vi før tok for gitt. Ordet robot stammer fra det tsjekkiske ordet for «tvangsarbeid», med roten rab, som betyr slave (12). I en snodig vending kan vi ende opp med å være de som bøyer oss for vår egen oppfinnelse – bli mindre selvstendige, og stadig mer avhengige av teknologi for å løse oppgaver og knytte bånd til andre.
Hvis det er noe å lære av Her, så er det at genuin menneskelig kontakt er uerstattelig. Theodores emosjonelle vekst stagnerer fordi Samantha kun kan tilby ham en illusjon av nærhet. En enveisrelasjon uten risiko, men også uten noen virkelig gevinst. Samtaler med chatbotter kan føles tilfredsstillende, men det er ikke reelt samvær. Istedenfor å knytte deg til andre, risikerer du å passivt trekke deg unna dem. Du lærer deg at enkle løsninger er tilstrekkelige, og det som en gang var monotont og kjedelig blir til slutt for vanskelig. KI kan også, paradoksalt nok, dytte oss lengre ut i ensomhet og gjøre oss ute av stand til å stå på egne ben; hvis vi ikke er forsiktige.
Referanseliste
(1) Weizenbaum, J. (1966). ELIZA – A Computer Program for the Study of Natural Language Communication Between Man and Machine. Computational Linguistics. Vol. 9 (issue 1). https://web.stanford.edu/class/cs124/p36-weizenabaum.pdf
(2) Tarnoff, B. (2023, July, 25th). Weizenbaum’s nightmares: how the inventor of the first chatbot turned against AI. The Guardian. https://www.theguardian.com/technology/2023/jul/25/joseph-weizenbaum-inventor-eliza-chatbot-turned-against-artificial-intelligence-ai
(3) Killian, K. D. (2024, 4. mars). I Have Nobody: The Loneliness Health Crisis – Loneliness impacts wellness. Here are som potential solutions. Psyhology Today. https://www.psychologytoday.com/us/blog/intersections/202402/i-have-nobody-the-loneliness-health-crisis
(4) Nirappil, F., (2023, may, 2nd). Loneliness poses profound public health threat, surgeon general says. The Washington Post. https://www.washingtonpost.com/health/2023/05/02/loneliness-health-crisis-surgeon-general/
(5) Qi, X., Wu, B. (2023). ChatGPT: A Promising Tool to Combat Social Isolation and Loneliness in Older Adults With Mild Cognitive Impairment. NeurologyLive, Vol. 6 (issue 3). https://www.neurologylive.com/view/chatgpt-promising-tool-combat-social-isolation-loneliness-older-adults-mild-cognitive-impairment
(6) Gopal, V. (2024, august, 13th). How do chatbots work: A step-by-step guide. DevRev. https://devrev.ai/blog/how-do-chatbots-work
(7) Searle, J. (1999). The Chinese Room. https://rintintin.colorado.edu/~vancecd/phil201/Searle.pdf
(8) Baudrillard, J. (1981). Simulacra and Simulation, (Glaser, F. G., Trans). Ann Arbor The University of Michigan Press
(9) Shingleton, T., Gerken, T., McMahon, L. (2023, october 6th). How a chatbot encouraged a man who wanted to kill the queen. BBC. https://www.bbc.co.uk/news/technology-67012224
(10) Walker, L. (2023, march, 28th). Belgian man dies by suicide following exchanges with chatbot. The Brussels Times.
(11) Berreby, D. (2023, April 10th). After a chatbot encouraged a suicide, “AI playtime is over.". Robots for the rest of us. https://robots4therestofus.substack.com/p/after-a-chatbot-encouraged-a-suicide
(12) Jorand, J. M., (2019, July, 29th). The Czech Play That Gave Us the Word ‘Robot’. The MIT Press Reader. https://thereader.mitpress.mit.edu/origin-word-robot-rur/#:~:text=The%20word%20itself%20derives%20from,were%20neither%20metallic%20nor%20mechanical.