Man ontwikkelt zeldzame aandoening na dieetadvies via ChatGPT
Kunstmatige Intelligentie - beter bekend als AI - is tegenwoordig aan de orde van de dag. Chatbots als ChatGPT worden vandaag de dag steeds vaker ingezet, en niet alleen om teksten te schrijven of van context te voorzien. Voor sommige mensen is ChatGPT uitgegroeid dus een ware goeroe, of zelfs een beste vriend. Deze man uit Amerika gaf de chatbot iets te veel vertrouwen, en dat leverde hem een zeldzame aandoening op.
ChatGPT wordt steeds vaker gezien als feitengoeroe
Toen ChatGPT in 2022 als eerste OpenAI – lees: gratis te gebruiken chatbot – werd gelanceerd, was iedereen nog vrij terughoudend over haar betrouwbaarheid. Met recht, want de GPT-3.5 diende nog als onderzoeksversie, en veel van wat je chatbot je voorschotelde bleek niet op waarheid berust.
Inmiddels zijn we een paar jaar verder en is GPT-5 deze maand geïntroduceerd. Daarmee is ook de betrouwbaarheid van ChatGPT een heel stuk verbeterd en gebruiken we de chatbot voor allerhande functionaliteiten. Denk bijvoorbeeld aan het uitwerken van teksten of andere administratieve zaken. Maar er is nog iets waar ChatGPT de laatste tijd gretig voor wordt gebruikt: als gesprekspartner. Of het nu is om te sparren over een bepaald onderwerp, om informatie te vergaren of omdat je je alleen voelt: ChatGPT staat altijd voor je klaar. Sommige mensen nemen dat inmiddels iets te serieus en zien de chatbot al als feitengoeroe of vriend.

Neem ChatGPT altijd met ‘een korreltje zout’
Het moge duidelijk zijn dat ChatGPT absoluut nog geen goeroe is, laat staan een vriend. Nee, ChatGPT is gewoon een robot, zonder menselijke eigenschappen als emotie of nuance. Als je dat in je achterhoofd houdt, is er niet zoveel aan de hand. Verlies je dit detail uit het oog, kan dat je duur komen te staan. Het overkwam een 60-jarige man uit de Verenigde Staten, nadat hij ChatGPT om advies had gevraagd met betrekking tot zijn dieet. De man probeerde zo snel mogelijk gewicht te verliezen, en vroeg de chatbot wat hij het beste kon doen. ChatGPT adviseerde hem vervolgens om geen zout meer te eten. Toen de man daarop vroeg waarmee hij zout tijdens het koken het beste kon vervangen, antwoordde de chatbot met natriumbromide. Een zeer opvallend advies, aangezien natriumbromide wordt ingezet als slaapmiddel en zelfs als middel tegen epilepsie.
Man krijgt zeldzame aandoening na een advies van ChatGPT
Dat dit niet anders dan slecht kon aflopen voor de 60-jarige Amerikaan, bleek toen hij na een aantal maanden last kreeg van verschillende klachten. Symptomen als buikklachten, acne en slapeloosheid staken de kop op. Later volgde zelfs ernstigere klachten als psychoses en paranoïde waanbeelden. Artsen constateerden al snel dat het hier ging om bromisme: een vergiftiging met natriumbromide. Toen de man vertelde hoe zijn lichaam zoveel natriumbromide binnen had kunnen krijgen, namen de artsen de proef op de som.
Ze stelden ChatGPT een vergelijkbare vraag, en kregen tot hun grote verbazing eenzelfde soort advies. Het meest kwalijke volgens de artsen was het feit dat ChatGPT op geen enkele manier waarschuwde voor het gevaar van natriumbromide, iets wat een medische professional altijd zou doen. Een lesje nederigheid dus: ChatGPT heeft nog steeds haar gebreken, bevat wetenschappelijke onnauwkeurigheden en is geen vervanger voor medische hulpverlening.
Lees ook: dit is waarom WhatsApp meeleest met je groepsgesprekk en dit en zó zet je het uit!