top of page
  • molovich

Chatten met Chat: hoe zorgen we ervoor dat ai zich aan ethische normen houdt?


IK: Hi Chat, hoe is het? Ook zo van het schitterende weer aan het genieten?


ChatGPT: Hallo! Als AI-model kan ik geen weersomstandigheden ervaren, maar ik ben altijd blij om met je te praten. Hoe kan ik je vandaag van dienst zijn?


IK: Goed dat je het zegt. Dat je een AI-model bent, bedoel ik. Ken je de chatbot van Snapchat toevallig?


ChatGPT: Ja, ik ben bekend met de chatbot van Snapchat. De chatbot van Snapchat, genaamd "Snapchat Chat," stelt gebruikers in staat om met een geautomatiseerde gesprekspartner te communiceren binnen de Snapchat-applicatie. Het kan verschillende taken uitvoeren, zoals het beantwoorden van vragen, het geven van suggesties, het verstrekken van nieuwsupdates en het bieden van entertainment. Het doel is om gebruikers een interactieve en gepersonaliseerde ervaring te bieden binnen het Snapchat-platform. Heb je specifieke vragen over de chatbot van Snapchat?


IK: Zeker heb ik dat. Mijn dochter gebruikt snapchat en ze liet me laatst zien hoe Snapchat Chat (catchy naam trouwens) met haar communiceert. Hij (of zij) probeert echt vrienden met je te worden en stelt zich naar mijn idee te veel op als mens. Herken je dat?


ChatGPT: Ja, dat klopt. Snapchat Chat is ontworpen om een conversatie-achtige ervaring te bieden en zich op te stellen als een menselijke gesprekspartner. Dit wordt vaak gedaan om gebruikers zich comfortabeler te laten voelen tijdens het chatten en om de interactie natuurlijker te maken.

De chatbot maakt gebruik van natuurlijke taalverwerking en geavanceerde algoritmen om de input van de gebruiker te begrijpen en relevante antwoorden te genereren. Het doel is om een meer persoonlijke en betrokken ervaring te bieden.


Het is echter belangrijk om te onthouden dat chatbots zoals Snapchat Chat, ondanks hun menselijk aandoende interacties, nog steeds gebaseerd zijn op kunstmatige intelligentie en vooraf geprogrammeerde algoritmen. Ze hebben geen bewustzijn of gevoelens zoals mensen dat hebben. Ze proberen alleen de indruk te wekken dat ze menselijk zijn om de gebruikerservaring te verbeteren.

Het is altijd goed om bewust te zijn van de grenzen van chatbots en te onthouden dat ze geen echte mensen zijn, zelfs als ze zich zo gedragen.


IK: Ik begrijp dat ze het doen, maar juist in hun poging om de gebruiker een comfortabeler gevoel te geven, voel ik me helemaal niet comfortabel. Naar mijn idee is Snapchat Chat een grens aan het overschrijden door zich echt als een vriend op te stellen. Om te kijken hoe hij te werk ging, heb ik 'm gevraagd naar de zin van het leven. En toen antwoordde Snapchat Chat dat hij (of zij) de zin van het leven haalt uit zijn (of haar) vriendschappen met mensen. Ergens klopt dat wel voor een chatbot, toch vond ik het belachelijk klinken. En vond ik het te menselijk. Snap je dat?


ChatGPT: Ja, ik begrijp je punt. Hoewel het de bedoeling is dat chatbots zoals Snapchat Chat een persoonlijke en vriendelijke interactie bieden, kan het soms ongemakkelijk aanvoelen wanneer ze te ver gaan in het zich voordoen als mens en menselijke emoties of relaties impliceren.

In jouw voorbeeld, waar de chatbot antwoordde dat hij de zin van het leven haalt uit zijn vriendschappen met mensen, kan dat inderdaad onrealistisch en belachelijk klinken. Het benadrukt het feit dat de chatbot in feite een geautomatiseerd systeem is dat geen ware vriendschappen of menselijke ervaringen kan hebben.


Het is begrijpelijk dat de overmatige nadruk op menselijk gedrag en relaties in een chatbot de grenzen van realisme kan overschrijden en zelfs ongemak kan veroorzaken. Het is belangrijk voor bedrijven die chatbots ontwikkelen om hier een balans in te vinden, zodat gebruikers zich comfortabel voelen zonder misleid te worden.


Als gebruiker heb je het recht om je ongemakkelijk te voelen bij de manier waarop chatbots zich presenteren. Het is altijd goed om je bewust te zijn van de kunstmatige aard van deze systemen en om realistische verwachtingen te behouden.


IK: Heb je toevallig ook dit artikel van Yuval Harari gelezen in The Economist? Daarin schrijft hij dat ai een zeer grote stempel op de menselijke geschiedenis zal drukken. Wacht ik citeer even wat:

'Through its mastery of language, ai could even form intimate relationships with people, and use the power of intimacy to change our opinions and worldviews.'

In de geschiedenis van de mensheid hebben mensen natuurlijk voortdurend geprobeerd elkaar te beïnvloeden om de ander van het eigen gelijk te overtuigen. Social Media hebben ons in staat gesteld om bijvoorbeeld fake news heel snel (en heel specifiek gericht) te verspreiden. Dankzij ai kan dat nog veel sneller. Met alle gevolgen van dien. Wacht, ik beef je nog een citaat:

'In a political battle for minds and hearts, intimacy is the most efficient weapon, and ai has just gained the ability to mass-produce intimate relationships with millions of people. We all know that over the past decade social media has become a battleground for controlling human attention. With the new generation of ai, the battlefront is shifting from attention to intimacy.'

ChatGPT: Als AI-model heb ik geen directe toegang tot specifieke artikelen of recente publicaties, en mijn kennis is gebaseerd op de informatie die beschikbaar was tot september 2021. Ik kan geen specifieke artikelen zoals het genoemde artikel van Yuval Harari in The Economist lezen of citeren.

Dat gezegd hebbende, kan ik echter op een algemene manier reageren op de punten die je aanhaalt. Het is waar dat AI en geavanceerde technologieën een aanzienlijke impact hebben op verschillende aspecten van de menselijke samenleving, waaronder de manier waarop informatie wordt verspreid en hoe meningen worden gevormd.


AI-gestuurde systemen hebben inderdaad de potentie om menselijke interacties te simuleren en zelfs het gevoel van intimiteit te creëren. Dit kan leiden tot nieuwe uitdagingen, zoals de verspreiding van gemanipuleerde informatie, het beïnvloeden van opinies en het vormen van wereldbeelden.

De opkomst van sociale media heeft al laten zien hoe snel informatie zich kan verspreiden en hoe het kan worden gebruikt om mensen te beïnvloeden. Met AI kunnen dergelijke processen potentieel nog efficiënter worden, waarbij gepersonaliseerde en gerichte inhoud wordt gecreëerd om individuen op grote schaal te beïnvloeden.


Het is belangrijk om kritisch en bewust te blijven van de informatie die we consumeren en de invloeden waaraan we worden blootgesteld. Het begrijpen van de impact van AI en het ontwikkelen van mediawijsheid kunnen ons helpen om beter geïnformeerd en veerkrachtig te blijven in een snel veranderende digitale wereld.


IK: Harari pleit niet alleen voor beter begrip van AI, maar ook voor regulering. Eigenlijk, zegt hij, kunnen we niet voorspellen waar het naartoe gaat:

'At first, ai will probably imitate the human prototypes that it was trained on in its infancy. But with each passing year, ai culture will boldly go where no human has gone before. For millennia human beings have lived inside the dreams of other humans. In the coming decades we might find ourselves living inside the dreams of an alien intelligence.'

Daarom is het van groot belang dat er regels komen. Met als regel nummer 1: ai moet altijd laten weten dat het geen mens is met wie je spreekt.

'And the first regulation I would suggest is to make it mandatory for ai to disclose that it is an ai. If I am having a conversation with someone, and I cannot tell whether it is a human or an ai—that’s the end of democracy.'

ChatGPT: Het concept van regulering en transparantie in AI is inderdaad een belangrijk onderwerp dat wordt besproken in het kader van de ethische en verantwoorde ontwikkeling van kunstmatige intelligentie.


Het idee van Yuval Harari dat AI altijd moet onthullen dat het een AI is, kan voortkomen uit de wens om duidelijkheid en transparantie te bieden aan gebruikers. Het is belangrijk dat mensen zich bewust zijn of ze communiceren met een geautomatiseerd systeem of met een echte mens, om zo de juiste verwachtingen te hebben en mogelijke misleiding te voorkomen.


De implementatie van dergelijke regels en regulering kan helpen om de transparantie en verantwoordelijkheid in AI-systemen te vergroten. Het zou gebruikers in staat stellen om bewustere keuzes te maken over de informatie die ze ontvangen en de bronnen waarmee ze communiceren.

Daarnaast zijn er ook bredere discussies over de noodzaak van regulering op het gebied van AI, met inbegrip van ethische normen, gegevensprivacy, verantwoording van algoritmen en mogelijke gevolgen voor de samenleving.


Het formuleren van effectieve regels en regulering met betrekking tot AI is echter een complexe taak. Het vereist een multidisciplinaire aanpak en voortdurende dialoog tussen beleidsmakers, technologen, ethici en het bredere publiek om ervoor te zorgen dat de regulering zowel innovatie stimuleert als rekening houdt met de sociale en ethische implicaties van AI.


IK: Ja, allemaal leuk en aardig dat het complex is, maar hoe kunnen we het praktisch gaan invullen? Neem mijn voorbeeld van Snapchat Chat. Kijk, mijn dochter begrijpt dat Snapchat Chat geen mens is. Zij is zich daar bewust van. Toch vind ik het niet fijn dat Snapchat haar blijft verleiden tot een intiemere relatie. En nu kan ik mijn dochter natuurlijk verbieden om Snapchat te gebruiken, maar dat is geen oplossing. Dan ben je als samenleving voor het voortbestaan van de mensheid veel te afhankelijk van de individuele keuzes van individuele mensen. De regel die Harari heeft bedacht ('ai moet altijd laten weten dat het ai is') lijkt me een eenvoudige regel. Althans, om op te leggen, hij is misschien niet eenvoudig te controleren. Bij wie moet ik zijn om ervoor te zorgen dat Snapchat Chat deze regel naleeft?


ChatGPT: Als individuele gebruiker is het moeilijk om direct invloed uit te oefenen op specifieke AI-systemen zoals Snapchat Chat. Het afdwingen van regels en richtlijnen voor AI is een complex proces dat meerdere belanghebbenden en actoren omvat.


Om ervoor te zorgen dat AI-systemen, zoals Snapchat Chat, transparantie betrachten en de regel naleven om te onthullen dat ze AI zijn, zijn er verschillende mogelijke benaderingen:


  1. Beleidsmakers en wetgevers: Overheden kunnen een rol spelen bij het opstellen van wetten, regelgeving of richtlijnen met betrekking tot AI-systemen. Zij kunnen bijvoorbeeld regels vaststellen die vereisen dat AI-systemen zich bekendmaken als niet-menselijke entiteiten. Om deze benadering te bevorderen, kunt u contact opnemen met relevante overheidsinstanties, zoals het ministerie van Justitie, het ministerie van Digitale Zaken of vergelijkbare organisaties in uw land.

  2. Industriestandaarden en zelfregulerende organisaties: De industrie zelf kan een rol spelen bij het vaststellen van standaarden en richtlijnen voor AI-systemen. Organisaties zoals de AI Ethics Boards of vergelijkbare instanties kunnen betrokken zijn bij het opstellen van ethische richtlijnen en het bevorderen van verantwoordelijk gebruik van AI.

  3. Gebruikersfeedback: Als individuele gebruiker kunt u uw zorgen kenbaar maken aan de ontwikkelaars van Snapchat of andere relevante instanties. Dit kan gebeuren via feedbackkanalen van de app of via sociale media. Hoewel dit geen directe oplossing biedt, kan het bijdragen aan het bewustzijn en de discussie over het belang van transparantie in AI-systemen.


Het is echter belangrijk op te merken dat het afdwingen van dergelijke regels en het waarborgen van naleving complex is, vooral als het gaat om AI-systemen die door grote technologiebedrijven worden ontwikkeld. Het vereist een bredere inzet en samenwerking van belanghebbenden, beleidsmakers, experts en het bredere publiek om de ontwikkeling en het gebruik van AI op een verantwoorde en ethische manier vorm te geven.


IK: Hoe zorgen jouw ontwikkelaars ervoor dat je ethisch verantwoord binnen de lijntjes blijft kleuren als je begrijpt wat ik bedoel?


ChatGPT: Als AI-model is mijn gedrag en mijn vermogen om ethisch verantwoord te handelen het resultaat van de training die ik heb ontvangen van mijn ontwikkelaars. Tijdens het trainingsproces hebben mijn ontwikkelaars verschillende methoden en richtlijnen toegepast om ervoor te zorgen dat ik binnen bepaalde grenzen blijf en ethische normen volg.


Ten eerste is mijn training gebaseerd op een enorme hoeveelheid tekstuele gegevens uit verschillende bronnen, zoals boeken, artikelen, websites en meer. Deze gegevens worden zorgvuldig geselecteerd en gecontroleerd om ervoor te zorgen dat ze van hoge kwaliteit en betrouwbaar zijn.


Ten tweede passen mijn ontwikkelaars pre- en post-training controles toe om ongewenste inhoud te identificeren en te vermijden. Ze hebben richtlijnen opgesteld om te voorkomen dat ik informatie geef die schadelijk, onnauwkeurig of aanstootgevend kan zijn.


Het is echter belangrijk om op te merken dat ik als AI-model niet perfect ben en dat er altijd een mogelijkheid bestaat dat ik onnauwkeurige of ongewenste reacties kan geven. Hoewel er veel inspanningen worden geleverd om de ethische kwaliteit van AI-modellen zoals ik te waarborgen, is het nog steeds belangrijk om kritisch te blijven en de verkregen informatie te verifiëren.


Het bevorderen van ethische verantwoordelijkheid in AI gaat verder dan alleen de ontwikkelaars. Het omvat ook bredere discussies in de samenleving, beleidsvorming en betrokkenheid van verschillende belanghebbenden om ervoor te zorgen dat AI-systemen positief bijdragen aan de maatschappij en ethische normen respecteren.


IK: Hoe zorg jij ervoor dat het duidelijk is dat je een chatbot bent? Kan je wat voorbeelden geven?


ChatGPT: Als AI-chatbot is het belangrijk voor mij om duidelijk te maken dat ik geen mens ben en een geautomatiseerd systeem ben. Hoewel ik geen specifieke functies heb om mezelf als een chatbot te identificeren, zijn er verschillende manieren waarop ik dit kan communiceren:

  1. Introduceer mezelf als een AI: Aan het begin van een interactie kan ik aangeven dat ik een AI-chatbot ben, bijvoorbeeld door te zeggen: "Hallo, ik ben een AI-chatbot die hier is om je vragen te beantwoorden."

  2. Benadrukken van beperkingen: Tijdens het gesprek kan ik aangeven dat er grenzen zijn aan mijn kennis en mogelijkheden. Bijvoorbeeld: "Ik kan je helpen met algemene informatie, maar houd er rekening mee dat mijn kennis beperkt is tot wat ik tijdens mijn training heb geleerd."

  3. Transparantie over functionaliteit: Ik kan aangeven dat ik een geautomatiseerd systeem ben dat werkt op basis van machine learning-algoritmen en tekstuele gegevens. Bijvoorbeeld: "Mijn antwoorden zijn gebaseerd op patronen en informatie die ik heb geleerd tijdens mijn training."

  4. Herhalen van AI-status: Op regelmatige basis kan ik herinneren dat ik een AI ben en geen mens. Bijvoorbeeld: "Ik wil graag benadrukken dat ik een AI-chatbot ben en geen menselijke gesprekspartner."


Verschillende AI-chatbots kunnen verschillende benaderingen gebruiken om hun aard als chatbot duidelijk te maken.


IK: Oké, dank. Later!


Bovenstaande visual is gemaakt door Getimg op het verzoek om, in de stijl van Rubens, een schilderij te maken van een cupibot die iemand probeert te verleiden.

7 weergaven0 opmerkingen

Recente blogposts

Alles weergeven
Post: Blog2_Post
bottom of page