ChatGPT is niet zo betrouwbaar als je denkt. Microsoft Copilot wél
GESCHREVEN DOOR: Tom Peters OP 16-04-2025
In een wereld waarin AI de belofte in zich draagt om werkdruk te verlichten en kenniswerk te versnellen, blijken tools als ChatGPT niet altijd even betrouwbaar. Dat ondervond de Amerikaanse advocaat Steven A. Schwartz, die ChatGPT gebruikte om juridische uitspraken op te zoeken. De chatbot klonk overtuigend, maar bleek verzonnen zaken te presenteren alsof ze echt waren. Het gevolg: een publieke afgang in de rechtszaal.
Wat hier misging, is geen incident. ChatG
PT kampt met zogeheten hallucinaties. Dit zijn antwoorden die feitelijk onjuist of zelfs compleet verzonnen zijn, maar toch met zelfverzekerde toon worden gepresenteerd. Het model kan bijvoorbeeld niet-bestaande bronnen citeren, verkeerde jaartallen geven of samenvattingen schrijven van documenten die helemaal niet bestaan. Gebruikers die ChatGPT blind vertrouwen, kunnen hierdoor op ernstige fouten stuiten zonder het zelf in de gaten te hebben.
Een andere zwakte is het gebrek aan actuele kennis. ChatGPT is standaard getraind op informatie tot medio 2023 of 2024. Alles wat daarna gebeurt, zoals nieuwe wetgeving, technologische ontwikkelingen of maatschappelijke trends, kan het missen. Tenzij het via speciale tools verbonden is met het internet, loop je dus een groot risico op verouderde of foutieve informatie.
Daarnaast begrijpt ChatGPT de wereld niet zoals mensen dat doen. Het model voorspelt woorden op basis van waarschijnlijkheid, maar heeft geen begrip van context, sarcasme of subtiele betekenissen. In lange of complexe gesprekken kan de draad volledig kwijtraken. Wat klinkt als een vloeiend antwoord, is vaak inhoudelijk leeg of simpelweg misplaatst.
Ook speelt mee dat ChatGPT getraind is op data van het internet — inclusief de vooroordelen, stereotypen en onnauwkeurigheden die daarin voorkomen
. Hierdoor kunnen antwoorden onbedoeld bevooroordeeld zijn of culturele gevoeligheid missen. Bovendien heeft het model geen eigen oordeel of manier om bronnen te verifiëren. Het zegt vooral wat plausibel klinkt, niet wat bewezen waar is.
En hier onderscheidt Microsoft Copilot zich. Copilot werkt met directe toegang tot vertrouwde informatiebronnen zoals Microsoft 365, SharePoint en real-time webdata via Bing. Waar ChatGPT gokt, haalt Copilot informatie uit de juiste plek — met context, actualiteit en verificatie. Dat maakt het veel betrouwbaarder voor professioneel gebruik, of je nu een juridische analyse maakt, een rapport opstelt of werkt aan strategische beslissingen.
Kortom: ChatGPT is indrukwekkend als creatieve tekstgenerator, maar geen bron van waarheid. Microsoft Copilot is gebouwd om te ondersteunen op basis van feiten, niet vermoedens. Wie wil bouwen op zekerheid, kiest dus beter voor Copilot.
Delen op social media

