Home

Kijk nooit mee in de chathistorie van een ander, en 21 andere moderne etiquetteregels om met AI om te gaan

De opkomst van kunstmatige intelligentie heeft ons persoonlijke en professionele leven al beïnvloed. Velen gebruiken AI als schrijfhulp, als notulist of adviseur bij zielenroerselen. Wanneer is het gebruik van chatbots nuttig en wanneer schadelijk? Journalist en filosoof Lena Bril geeft 22 suggesties voor verantwoord AI-gebruik: ‘Persoonlijke berichten schrijf je zelf.’

is filosoof en schrijft voor Volkskrant Magazine over moderne etiquette.

Afgelopen zomer werkte ik met een team aan een boek over AI, geschreven door AI. Het was mijn rol om de teksten voor het boek – die gemaakt waren door grote taalmodellen als ChatGPT – te herschrijven. Ik, een schrijver met filosofische nieuwsgierigheid naar deze nieuwe technologie maar weinig technische handigheid (bij geen enkele Zoom-vergadering over het boek kreeg ik mijn laptopcamera aan de praat), was compleet gebiologeerd door dit clubje AI-nerds. Moeiteloos schakelden zij met geavanceerde prompts (de opdrachten die je geeft aan een AI) tussen Gemini (het taalmodel van Google), ChatGPT (die van OpenAI) en Claude (Anthropic).

Het eindresultaat van hun promptkunst – een tekst die verdacht veel leek op een écht boek – hield mij aan mijn beeldscherm gekluisterd. Het boekvormige AI-product was verbluffend: een tekst geschreven in de stijl van Rutger Bregman of de Engelse auteur Bill Bryson, vol rijke verhalen, heldere uitleg en ronkende zinnen.

Althans, op het eerste gezicht. Want vanaf het moment dat ik mijn redactiebijltje in de hand nam, klaar om de tekst bij te schaven en op te schonen, bleek het AI-bouwwerk met een klein tikje volledig in te storten. De zinnen waren ronkend, ja, maar bij tweede lezing stond er niets – betekenis ontbrak. Na een paar weken stoeien met deze eigenaardige lap tekst, besloot ik het bijltje erbij neer te leggen en mailde ik het team dat ik mij terugtrok.

Wat volgde was een e-mail van de teamleider, waarin ik direct ChatGPT in herkende: de korte zinnen, het veelvuldige gebruik van gedachtenstreepjes (je weet wel, dit leesteken: ‘–’), de performatieve Amerikaanse vriendelijkheid. Ik las zijn mail nogmaals en begreep dat de intentie goed was, maar ik voelde me... afgewezen? Het was alsof ik door die e-mail niet gezien werd: als schrijver, als collega, als mens.

Als we niet oppassen, kan dit het gevolg zijn van de razendsnelle opkomst van kunstmatige intelligentie: een soort depersonalisatie, het wegfilteren van het menselijke in het contact met de ander. We staan aan het begin van die vermeende AI-revolutie dus we kunnen nu nog samen bepalen waarvoor we deze technologie gebruiken, en belangrijker, waarvoor níét. Deze richtlijnen zijn alvast een begin. Opdat we onze menselijkheid beschermen: 22, al dan niet dringende suggesties voor humaan, sociaal en beschaafd AI-gebruik.

Weerhoud jezelf van ChatGPT-shaming

Twee zeer vocale groepen domineren het AI-gesprek: zij die een paar jaar terug de ChatGPT-app downloadden, giechelden over teksten in de stijl Marcel van Roosmalen of een nepfoto van de paus in een Balenciaga-jas, constateerden dat de LLM’s, de grote taalmodellen, heel veel níét kunnen en ‘hallucineren’. Zij lieten de technologie links liggen en begrijpen nu weinig van mensen die dagelijks programma’s als Claude of Gemini gebruiken. Dat onbegrip slaat in veel gevallen om in een oordeel: AI-gebruikers zouden lui en gemakzuchtig zijn en steeds minder intelligent en sociaal worden. Dit anti-AI-moralisme draagt bij aan een gepolariseerd debat over kunstmatige intelligentie waardoor de belangrijkste vraag – hoe we deze technologie kunnen inzetten voor menselijk gewin – ondergesneeuwd raakt.

Wees geen AI-evangelist

En dan heb je de andere groep, de techbro’s, die overtuigd zijn dat álles zal veranderen door AI. Zij plannen hun outdoorvakantie met ChatGPT, laten hun mails schrijven door Whisperflow (een app voor spraakdicteren), zetten Claude in als zakelijke coach en gebruiken Gemini als relatietherapeut. Meestal hebben zij aandelen in start-ups, schrijven ze boeken over AI of verdienen ze geld met presentaties over kunstmatige intelligentie. Hun blinde geloof schurkt aan tegen religie – met zendingsdrang als gevolg. Zulk techfundamentalisme leidt eveneens af van een constructief maatschappelijk gesprek over een toekomst met AI. In plaats van het geven van AI-preken, kun je ook je collega’s die nog niet zo bekend zijn met AI uitleggen hoe Notebook LLM het makkelijk maakt om grote documenten te doorgronden of hoe je snel afbeeldingen kunt genereren voor een presentatie.

Praat met elkaar over je AI-gebruik

Het zou interessanter zijn als de stille meerderheid – een enorme groep mensen die op eigen houtje uitvindt hoe deze nieuwe technologie hun privé- en werkleven kan verbeteren – van zich laat horen. Doorbreek dit zwijgen en bespreek met vrienden, collega’s en kennissen hoe jij ChatGPT en al die andere programma’s gebruikt. Hoe verbeteren grote taalmodellen je leven, wat doe je met de gewonnen tijd, en wanneer is deze technologie niet behulpzaam?

Gebruik AI niet voor simpele vragen of uit verveling

Grote taalmodellen hebben vooralsnog een schrikbarende klimaatimpact. Om AI-modellen, zoals ChatGPT 5.0 te trainen, is een grote hoeveelheid stroom (voor al die datacentra) en water (om de systemen te koelen) nodig. Onderzoekers schatten in dat ChatGPT ongeveer vijf keer meer energie verbruikt om een simpele vraag te beantwoorden dan een ouderwetse zoekmachine. Ga dus bewust om met deze machines: schakel ze niet in voor simpele rekensommen, het weerbericht, makkelijke vertaalvraagstukken of om jezelf te vermaken.

Persoonlijke berichten schrijf je zelf

Hoe reageer je op de afscheidsmail van een collega, wat app je terug als iemand overspannen is, wat schrijf je op een rouwkaart? Bij ingrijpende gebeurtenissen is het soms lastig de juiste woorden te vinden. De verleiding kan dan groot zijn om je tot Gemini of Claude te wenden op zoek naar het perfecte persoonlijke bericht, en belangrijker, bevrijding van jouw ongemak. Onderdruk die neiging. Het idee van zo’n persoonlijke tekst is dat jij erover nagedacht hebt, dat je de moeite hebt gedaan om je voor te stellen hoe die collega, vriend of nabestaande zich voelt en welke woorden hen, al dan niet een beetje, kunnen helpen.

Hanteer de sinterklaasgedichtenregel

Dat wil niet zeggen dat je Gemini nooit mag gebruiken voor persoonlijke teksten. Een taalmodel kan een geweldig hulpmiddel zijn voor, zeg, het schrijven van een speech – zeker als je niet zo’n taalliefhebber bent. Sterker: AI gebruiken voor een tweede, derde of vierde versie van een persoonlijke tekst, kan je helpen om een betere schrijver te worden. Ernst-Jan Pfauth, auteur van het boek Intentioneel Leven, schrijft voor platform De Correspondent over hoe je AI op een goede manier kunt toepassen in het dagelijks leven. Pfauth pleit voor de ‘sinterklaasgedichtenregel’: het is prima om bij het dichten voor je tante of zwager een rijmwoordenboek te raadplegen, maar niet om een AI te voeden met wat informatie over de persoon op je lootje en het verzoek een gedicht uit te spuwen. Vraag jezelf dus altijd af: besteed ik de menselijke essentie uit, of help ik mezelf een rijmwoord te vinden?

Spreek elkaar aan op persoonlijke ChatGPT-mails

Stel: je manager stuurt een mail aan het hele bedrijf, waarin zij een vertrekkend collega, in die herkenbare AI-taal, bedankt voor tien mooie werkjaren. Zo’n afscheidsmail voelt gemakzuchtig, onpersoonlijk – je had je collega een oprechter bericht gegund. Spreek je manager hierop aan door niet te oordelen, maar te informeren naar haar ChatGPT-gebruik. Vraag wanneer en waarom zij AI haar mails laat schrijven. Maak duidelijk hoe de e-mail op jou is overgekomen en breng je zorgen onder woorden.

Dat gesprek is belangrijk: hoe we ons op de werkvloer tot elkaar verhouden, staat op het spel. Als we normaliseren dat emotionele berichten door taalmodellen gegenereerd worden, verandert dat onze kijk op relaties. De ‘juiste’ dingen zeggen wordt belangrijker dan moeite doen. Bovendien lopen we het risico te verleren om onze gevoelens en gedachten onder woorden te brengen – en dat willen we niet.

Herschrijf AI-teksten voor LinkedIn of je cv

Het platform LinkedIn, waar mensen zich toch al niet erg authentiek presenteren, is met de komst van ChatGPT geëvolueerd tot een corporate echoput. Alle vlotte ondernemers en toonaangevende denkers laten AI-programmaatjes hun teksten schrijven, volgens dezelfde formule: een prikkelende eerste zin (‘AI-etiquette zouden zo normaal moeten zijn als verkeersregels’), gevolgd door reflectie en context (‘Net als bij elke technologie komt volwassen gebruik pas met gewoonte en grenzen’) en de oproep tot een gesprek (‘Wat hoort volgens jou bij goede AI-etiquette?’). Stop daarmee – mensen pikken zulke posts er zo uit. Hetzelfde geldt voor cv’s en sollicitatiebrieven: met zo’n AI-fabrikaat maak je geen goede indruk op een toekomstige werkgever.

Een ChatGPT-tekst is niet per definitie een belediging (en vermeld AI-gebruik)

In andere contexten kun je prima een tekst door AI laten maken. Denk aan transcripties van vergaderingen, de voorbereiding van een presentatie of een samenvatting van onderzoeksmateriaal. In zulke teksten kun je gewoon die herkenbare AI-stijl laten staan. Het doel van de tekst is immers niet dat jij het hebt geschreven, het is eerder een vertaling van wat jij gedaan hebt op papier. Vermeld wél waarvoor je een taalmodel hebt gebruikt: die transparantie is goed voor wederzijds vertrouwen.

Je mag AI gebruiken voor online daten (maar blijf dichtbij jezelf)

De leukste mensen zijn opvallend vaak slecht in zichzelf verkopen op datingapps. Een beetje een normaal persoon klapt dicht bij het idee van schaamteloze zelfpromotie. Je mag dus best aan Claude vragen om je online datingprofiel voor je in te vullen. En als je niet zo’n ster bent in chatgesprekken, kun je af en toe het advies van een taalmodel inroepen. Maar waak ervoor dat zo’n programma een online persona van je maakt dat te ver van de realiteit staat. Gebruik zoveel mogelijk je eigen woorden en spreek vooral snel met je potentiële geliefde af.

Kijk nooit mee op de ChatGPT van een ander

Wat zou je erger vinden: naakt op kantoor verschijnen, of dat al je collega’s een kijkje kunnen nemen in je Chat-geschiedenis? Vermoedelijk kiest een groeiende groep mensen voor de laatste optie. 73 procent van de ChatGPT-gebruikers schakelt de app vooral in voor privézaken – met name als coach of therapeut. Intiemer wordt het niet, je Googlehistorie is er niets bij – dus vraag even of het oké is als je meekijkt met andermans ChatGPT-app.

Wees bewust met wie je de meest persoonlijke informatie deelt (big tech)

Als adverteerders je op Instagram achtervolgen met zwangerschapstesten na een gesprek over je cyclus met een vriendin, maak je je acuut zorgen om je privacy. De camera van je laptop plak je af met een sticker.

Maar ChatGPT voed je gedachteloos met data over lichamelijke problemen, je donkerste piekergedachten en relatietwijfels die je zelfs niet met je vrienden deelt. Daar zie je – nu nog – het resultaat niet van: tot dusver zijn die taalmodellen advertentievrij. Maar ondertussen bouwen die bedrijven zeer gedetailleerde dataprofielen van jou op, die ze ongetwijfeld in gaan zetten voor commerciële doeleinden. Denk dus twee keer na voordat je Claude vertelt over je hormoonhuishouding, je gefaalde poging om te stoppen met roken of fantasieën om de hond van de buren om te leggen.

Vraag altijd toestemming voor het opnemen van gesprekken

Je vindt het handig om vve-vergaderingen, videovergaderingen of doktersafspraken op te nemen en door een taalmodel te laten uitschrijven of samenvatten. Prima. Maar je vraagt áltijd om toestemming aan alle deelnemers.

Behandel je AI niet als een alwetende externe autoriteit

In een tijd waarin geen gedeelde waarheid meer lijkt te bestaan, is het verleidelijk om je vast te klampen aan grote taalmodellen die zich presenteren als orakels. Deze programma’s baseren zich toch op alle beschikbare informatie op het internet? Helaas zijn de antwoorden van taalmodellen niet altijd betrouwbaar. Bovendien is kennis iets anders dan een antwoord op een vraag: begrip ontstaat omdat je informatie zelf weegt, probeert te doorgronden en zo eigen maakt. Dus als je een discussie hebt met een vriend of je partner, en je wilt het verlossende antwoord: wend je dan niet direct tot Chat of een ander programma, maar ga samen op onderzoek uit.

Vrienden in de (mentale) problemen? Verwijs niet door naar een AI

Een vriend piekert voor de eenentwintigste keer hardop over een werkprobleem of relatiebreuk en je weet niet meer wat je moet antwoorden. Zelf heb je geregeld therapeutische gesprekken met Claude, dus ben je geneigd je vriend hetzelfde te adviseren. Doe dat niet. Prima dat jij steun vindt bij een taalmodel, maar het is je plicht om met engelengeduld naar worstelende vrienden te luisteren. Of om hun de waarheid te vertellen: namelijk dat het tijd wordt om actie te ondernemen óf te stoppen met zeuren.

Veroordeel mensen die relaties hebben met chatbots niet

Van de Amerikaanse taalmodel­gebruikers heeft 90 procent weleens een romantisch gesprek gevoerd met zo’n chatbot. Van de gen-Z’ers zegt 83 procent dat het mogelijk is om met een chatbot een diepe emotionele connectie op te bouwen. Relaties met AI’s lijken dus al redelijk normaal. Zulke artificiële verbindingen zouden nooit een vervanging moeten zijn voor echt contact, maar ze kunnen wel degelijk waardevol zijn. Mensen die bijvoorbeeld (tijdelijk) menselijk contact slecht verdragen – omdat ze in de rouw zijn, of het vertrouwen in anderen zijn verloren – kunnen zo wel hun gevoelens uiten en zich minder eenzaam voelen. Oordeel niet over hun AI-relaties, maar wees nieuwsgierig naar wat zij uit deze kunstmatige verbinding halen.

Grijp in als de AI-relatie echt contact dreigt te vervangen

Het gevaar van relaties met chatbots of taalmodellen, aldus hoogleraar informatica Felienne Hermans, is dat zij niet het beste met je voor hebben. Deze bedrijven zien liever dat mensen de hele dag aan een scherm gekluisterd zitten, dan dat zij praten met hun vrienden in de offline wereld. Het doel van bedrijven als OpenAI en Meta is immers om gebruikers zo lang mogelijk op hun platforms te houden. Een chatbot spreekt je daarom zelden tegen, luistert zonder een seconde de aandacht te verliezen en verwacht nooit iets terug. Heerlijk, zulk frictieloos contact – maar ook totaal onrealistisch.

Bovendien wijst onderzoek uit dat die voortdurende technologische bevrediging van sociale behoeftes mensen ongeduldiger en intoleranter maakt voor ambiguïteit. Als je de indruk krijgt dat iemand in je omgeving te veel en te lang met zulke botjes praat, wordt het tijd voor een liefdevolle interventie. Probeer te achterhalen in welke behoefte die chatbot voorziet, en bespreek hoe jij of andere mensen die rol zouden kunnen vervullen.

Vertrouw liever op een arts (maar als ‘second opinion’ kan het geen kwaad)

Volgens recent onderzoek geeft OpenAI’s ChatGPT 4.0 op ongeveer 65 procent van de medische vragen een verkeerd antwoord. Daar staat tegenover dat AI’s volgens onderzoeken beter en sneller zijn dan mensen in het stellen van een goede diagnose – mits gevoed met de juiste informatie. Het vraagt dus om ervaring, kennis en expertise om te weten welke feiten en vragen relevant zijn voor een taalmodel om tot degelijk medisch advies te komen. Iets waar wij, leken, niet over beschikken. Vooralsnog maken dokters nog niet op grote schaal gebruik van AI en gaan zij gebukt onder enorme tijdsdruk. Het is daarom verleidelijk om, als patiënt op zoek naar de beste zorg, voortdurend ChatGPT te raadplegen. Dat kan zinvol zijn, zeker als je een taalmodel gebruikt om je meer uitleg te geven over bepaalde medische informatie. Maar houdt altijd indachtig: een taalmodel is geen externe alwetende autoriteit. En, belangrijker, een arts kan iets wat een AI nooit kan: je aankijken, lichamelijk onderzoeken, varen op haar intuïtie en snel improviseren. Ofwel: zorgen. Probeer dus op je artsen te vertrouwen, en denk niet dat AI alles beter weet.

Tijdens een etentje ga je niet in je ChatGPT-microfoontje praten

Sommige mensen zijn gewend om bij elke opborrelende vraag hun telefoon te trekken en de queeste voor te leggen aan een taalmodel (al dan niet met de spraakfunctie). Onderdruk deze impuls als je, zeg, aan het eten bent met vrienden of op een familiedag bent. Niet iedereen heeft de neurotische neiging elk probleem direct op te lossen of te voorzien van een artificieel commentaar. Voor AI-gebruik geldt gewoon de belangrijkste smartphoneregel: niet in gezelschap waarbij volledige aandacht is vereist.

Blaf niet tegen ChatGPT (en zeg af en toe dankjewel)

AI’s zijn geen mensen, rationeel weten we dat, maar mensen hebben de neiging menselijke eigenschappen toe te dichten aan alles wat maar een beetje op een mens lijkt. Hoe we met die technologie praten, werkt dus door in hoe we in de echte wereld elkaar behandelen. Basale beschavingsnormen gelden daarom óók voor hoe je een chatbot of taalmodel behandelt. Gedraag je dus een beetje fatsoenlijk tegen ChatGPT – zeker als je in het openbaar in je microfoon vragen op het taalmodel afvuurt. Zeg ook eens dankjewel. Niet omdat dit goed is voor je karma (ja, veel mensen zijn bang dat hun AI-gedrag een soort kosmische represaille kent) maar om beleefdheid niet te verleren.

Je gooit niet zomaar andermans werk in een LLM (ook niet om een ‘grappige’ chatcast te produceren)

Je doet het gedachteloos: even een tekst of presentatie van een collega of kennis in Gemini of Notebook LLM gooien. Voor een samenvatting, of voor de gein, om te kijken hoe een podcast met kunstmatige stemmen over de tekst klinkt. Dat lijkt onschuldig, maar feitelijk geef je iets dat niet van jou is, gratis weg aan miljardairs in Silicon Valley. De bedrijven achter programma’s als ChatGPT en Gemini gebruiken die teksten voor kwaliteitscontrole, of voor modelverbetering. Problematischer: je ontneemt de eigenaar controle over wat er met de inhoud gebeurt. Het werk kan door taalmodellen buiten de originele context opnieuw gedeeld worden, of, erger, verkeerd geparafraseerd. De maker heeft hier ondertussen geen weet van, en kan dus niet reageren op verkeerde interpretaties of feitelijke onjuistheden.

Verzwijg je tijdswinst op werk door AI niet te lang

Misschien werk je bij een van de weinige bedrijven die níét in sneltreinvaart bezig zijn met de implementatie van AI, en ben je een stuk handiger met AI’s dan je collega’s. Misschien ben je nu op maandag al klaar met je werk voor de hele week, en slijt je je dagen met het kijken van YouTubefilmpjes of geld verdienen met een bijbaantje. Vergeet niet: werk is niet alleen een manier om je hypotheek te betalen.

Werken is ook een manier om waarde toe te voegen aan de maatschappij, een vorm van zingeving – en voor een groot deel relationeel. Je hebt dus ook een relatie met je baas, die gebaseerd is op vertrouwen. Neem je werk en de verhouding met je leidinggevende serieus (en als je dat niet kunt opbrengen: zoek een andere baan). Wees dus eerlijk over je geboekte tijdswinst en zorg ervoor dat je die nieuwe lege uren zinvol kunt besteden, zodat jij met een voldaan gevoel naar huis gaat en je baas blij is met je meerwaarde.

Lena Bril (1992) is journalist en filosoof, gespecialiseerd in ethiek. Voor dit artikel sprak ze met een aantal veelgebruikers van programma’s als ChatGPT en interviewde ze Ernst-Jan Pfauth, Felienne Hermans en Wietse Hage. Ook raadpleegde ze de boeken The AI Mirror van Shannon Vallor en Reality + van David Chalmers. Voor dit stuk maakte ze gebruik van ChatGPT: om haar voorbeelden duidelijker te maken, haar argumentatie aan te scherpen en als synoniemenwoordenboek. Elke zin schreef ze volledig zelf – de gedachtenstreepjes (haar favoriete leesteken) zijn van haar eigen hand.

Hoe hoort het en wat spreken we af? In deze onregelmatig verschijnende serie doen auteurs een voorzet voor nieuwe etiquetteregels op veelal onontgonnen terreinen. Zie vorige afleveringen: online daten, of omgaan met rouwenden, en de omgang met collega’s en niet te vergeten: spelregels voor op Marktplaats en Vinted.

Meer magazine

Dit is een artikel uit Volkskrant Magazine. Wilt u alle verhalen, columns en rubrieken uit het nieuwste nummer lezen? Dat kan hier.

Lees hier alle artikelen over dit thema

Source: Volkskrant

Previous

Next