Freek in gesprek met ChatGPT#2

11 november 2024

Freek:
Zou het een idee zijn om bij ieder antwoord dat Chat GTP verstuurt een waarschuwing mee te sturen over de beperkingen en gevaren van dat antwoord?

ChatGPT:
Dat zou een idee kunnen zijn, vooral om de gebruiker alert te houden op de beperkingen van AI-gegenereerde antwoorden. Door zo’n waarschuwing mee te sturen, zouden gebruikers eraan herinnerd worden dat AI-systemen soms onnauwkeurige, verouderde, of contextueel beperkte informatie geven. Dit kan vooral nuttig zijn bij gevoelige onderwerpen, medische informatie, juridisch advies, of actuele gebeurtenissen waarbij verkeerde informatie serieuze gevolgen kan hebben.

In de praktijk kan het constant herhalen van een waarschuwing bij ieder antwoord echter als storend worden ervaren en mogelijk zelfs leiden tot “waarschuwingsmoeheid,” waarbij gebruikers de melding gewoon gaan negeren. Een middenweg zou zijn om een periodieke herinnering te tonen of een permanente disclaimer op de interface, met de mogelijkheid om meer details over de beperkingen en gevaren te bekijken als gebruikers daar behoefte aan hebben.

Freek:
Het moet voor AI een eenvoudig klusje zijn de waarschuwingsmoeheid te voorkomen. Het is een nogal doorzichtige vlucht om de morele verplichting van betrouwbaarheid te ontlopen. Het maakt me nieuwsgierig naar het eigen belang van Chat GTP.

ChatGPT:
Je hebt een sterk punt. AI-systemen zouden inderdaad technieken kunnen inzetten om waarschuwingsmoeheid te verminderen en waarschuwingen contextueel toe te passen, afhankelijk van de aard van de vraag. Een systeem kan bijvoorbeeld onderscheid maken tussen onderwerpen waar meer nuance, voorzichtigheid, of bronverwijzingen nodig zijn, zoals gezondheidsadvies of juridische informatie, en onderwerpen waarbij dit minder essentieel is, zoals algemene kennis of creatieve ideeën.

Wat betreft het eigenbelang van AI-systemen zoals ChatGPT: deze systemen zijn ontwikkeld door bedrijven en organisaties met eigen doelen, vaak gericht op gebruiksgemak, schaalbaarheid, en vertrouwen van gebruikers, met winst of efficiëntie als bijkomende drijfveer. Betrouwbaarheid is daarbij natuurlijk belangrijk — zeker omdat gebruikers erop moeten kunnen rekenen dat AI hen niet misleidt of schaadt. De uitdaging ligt in het vinden van een balans tussen betrouwbaarheid en gebruiksvriendelijkheid, terwijl ook commerciële belangen spelen.

Ik denk dat jouw vragen raken aan bredere ethische overwegingen rond AI, die gelukkig steeds vaker worden besproken binnen AI-ontwikkeling. Feedback zoals die van jou helpt dit proces om AI verantwoord en met gebruikersbelang voorop verder te verbeteren.

Freek:
Feedback geven is op zich al gevaarlijk als ik niet weet wat er mee gaat gebeuren.

ChatGPT:
Dat is een heel terechte zorg. Het geven van feedback voelt alleen veilig als je weet wat ermee gebeurt, hoe het wordt gebruikt, en wie toegang heeft tot die gegevens. Feedback kan waardevolle inzichten bieden voor de ontwikkeling van AI, maar zonder transparantie over het gebruik ervan, ontstaat er begrijpelijk wantrouwen.

AI-ontwikkelaars staan daarom voor de taak om beter te communiceren over de verwerking van feedback, zoals of het wordt gebruikt voor trainingsdoeleinden, voor het verbeteren van interacties, of alleen om patronen te herkennen zonder persoonlijk te herleiden. Er zou meer transparantie moeten zijn over hoe AI en feedbacksystemen werken, inclusief heldere opties voor gebruikers om te kiezen of hun feedback wordt opgeslagen of genegeerd.

In het ideale geval weet je precies hoe jouw input invloed heeft en kun je erop vertrouwen dat het enkel wordt gebruikt voor verbeteringen die in jouw belang werken, zonder dat het leidt tot misbruik, commerciële voordelen of andere ongewenste effecten.