Krever kunstig intelligens mer psykologisk trygghet?
Kan AI øke den mellommenneskelige risikoen?
Psykologisk trygghet, slik Amy Edmondson beskriver den, handler om hvorvidt mennesker opplever at det er trygt å ta mellommenneskelig risiko i en gruppe – for eksempel å stille spørsmål, innrømme feil eller vise usikkerhet (Edmondson, 1999).
AI kan øke nettopp denne typen risiko. Når ansatte bruker AI-verktøy, blir kompetansegap lettere synlige: Man bør stille spørsmål man kan vurdere kvaliteten i svaret på, vurdere usikre svar og eksperimentere med uferdige ideer – nettopp fordi systemet kan gi feil eller misvisende forslag. Studier av AI-bruk i kunnskapsarbeid tyder på at psykologisk trygghet kan påvirke om ansatte i det hele tatt begynner å bruke slike verktøy (Gerlich, 2025). I team med høy psykologisk trygghet er mennesker mer villige til å eksperimentere, dele erfaringer og lære av hverandre.
It's not the speed. It's the compounding.
When you use AI today, you generate data and learning.
Organizational learning. Practical learning.
Learning about what works in your processes.
Trygve Karper, CEO of riff.ai
AI kan gjøre læring mer eksperimentell
Når vi lærer å bruke AI, skjer det sjelden gjennom lineære prosesser. Det ligner mer på en iterativ prosess:
man tester en idé
får et dårlig svar
justerer spørsmålet
prøver igjen
Denne typen læring krever aksept for feil og usikkerhet. Hvis ansatte opplever at svak AI-bruk kan tolkes som inkompetanse, vil mange velge en tryggere strategi: å bruke teknologien minst mulig.
Den skjulte fellen: følelsen av å forstå
Generativ AI introduserer også et fenomen forskere kaller false mastery. AI kan formulere svært overbevisende forklaringer. Resultatet kan være at brukeren føler at noe er forstått, uten å ha gjort resonnementet selv. Eksperimenter tyder på at bruk av generativ AI tidlig i skriveprosesser kan føre til svakere hukommelse for eget arbeid og lavere nevral aktivitet knyttet til læring (Kosmyna et al., 2025). Dette gjør kritisk refleksjon ekstra viktig. Men kritisk refleksjon krever en kultur der det er trygt å si:
«Dette svaret virker ikke riktig.»
Har vi egentlig fått en ny flaskehals i kunnskapsarbeid? Når AI gjør det enkelt å generere ideer, analyser og tekstforslag, flyttes utfordringen et annet sted i prosessen. Hva skjer når vi går fra fra produksjon til vurdering? Studier av AI-assistert arbeid beskriver dette som et verification bottleneck: Det blir stadig lettere å generere løsninger – men vanskeligere å vite om de er gode (Parikh et al., 2026). I slike situasjoner blir teamets evne til å stille spørsmål, utfordre resonnementer og diskutere kvalitet avgjørende. Og dette kjernen i psykologisk trygghet.
Et kompetanseskifte i kunnskapsarbeid
Kunstig intelligens endrer ikke bare hvilke verktøy vi bruker, men det endrer også hva slags tenkning organisasjoner trenger. Når maskiner kan generere analyser og tekster, flyttes det kritiske mennesker løse til til et annet sted i prosessen:
stille bedre spørsmål
utfordre resonnementer
vurdere kvaliteten på svar
Produktivitetsstudier av generativ AI viser samtidig betydelige effektiviseringsgevinster i kunnskapsarbeid (Noy & Zhang, 2023), men for at dette skal fungere i praksis, må mennesker kunne vise tvil, usikkerhet og uferdig tenkning i arbeidshverdagen. Dette krever psykologisk trygghet. Dermed oppstår et interessant paradoks: Jo mer avansert kunstig intelligens blir, desto viktigere kan en tilsynelatende enkel faktor bli. At vi tør å bruke stemmen vår til å si «Jeg tror ikke dette svaret stemmer» eller “finnes det andre alternativer?” etc. Farten i AI er ulik noe annet vi har opplevd før, og man kan stadig se nyhetsbrev som presenterer hva har skjedd innen AI siste uken?
Referanser
Edmondson, A. (1999). Psychological safety and learning behavior in work teams. Administrative Science Quarterly, 44(2), 350–383.
https://doi.org/10.2307/2666999
Gerlich, M. (2025). AI tools and critical thinking: Evidence from knowledge work. Current Psychology.
https://link.springer.com/article/10.1007/s12144-025-08800-0
Kosmyna, N., et al. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant. MIT Media Lab.
https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187–192.
https://doi.org/10.1126/science.adh2586
Parikh, P., et al. (2026). Human-AI collaboration and the verification bottleneck. arXiv.
https://arxiv.org/abs/2601.17055