OpenAI, het bedrijf dat het populaire taalmodel ChatGPT heeft ontwikkeld, wordt geconfronteerd met uitdagingen op het gebied van naleving van de wet en nauwkeurigheid van data. Deze kwestie heeft NOYB – het Europees Centrum voor Digitale Rechten, een non-profitorganisatie gevestigd in Wenen, Oostenrijk, ertoe aangezet een klacht in te dienen tegen OpenAI bij de Oostenrijkse Autoriteit voor Gegevensbescherming (DPA).
Het verzamelen van data door OpenAI heeft inderdaad tot bezorgdheid geleid bij regelgevende instanties en privacy voorvechters. Deze stap van NOYB kan een groter gesprek op gang brengen over het ethisch gebruik van data in de technologie.
OpenAI’s data problemen leggen ethische uitdagingen van AI bloot
De kern van de klacht ligt in de recente bekentenissen van OpenAI over de beperkingen van ChatGPT bij het verwerken van data. Volgens OpenAI is het AI-model niet in staat om de nauwkeurigheid te verifiëren van de informatie die het genereert over individuen. Bovendien kan het ook de herkomst van de data niet onthullen.
Te midden van de opkomende AI-hype die werd veroorzaakt door de lancering van ChatGPT in november 2022, heeft de brede toepassing van de tool kritieke kwetsbaarheden blootgelegd. ChatGPT werkt door middel van het voorspellen van waarschijnlijke reacties op vragen van gebruikers zonder een inherent mechanisme om de feitelijke nauwkeurigheid te garanderen.
Dit heeft geleid tot gevallen waarin de AI data ‘hallucineert’ en antwoorden verzint die misleidend of volledig onjuist kunnen zijn. Hoewel dergelijke onnauwkeurigheden in sommige contexten onbeduidend kunnen zijn, vormen ze sterke risico’s als het om persoonlijke data gaat.
Lees meer: Hoe bouw je een persoonlijke AI-chatbot met behulp van de ChatGPT API?
De General Data Protection Regulation (GDPR) van de Europese Unie verplicht de nauwkeurigheid van persoonlijke data en geeft individuen het recht om onjuiste informatie over zichzelf in te zien en te corrigeren. De huidige mogelijkheden van OpenAI voldoen niet aan deze wettelijke vereisten, wat een debat op gang heeft gebracht over de ethische implicaties van AI bij het omgaan met gevoelige data.
Maartje de Graaf, advocaat gegevensbescherming bij noyb, benadrukt de ernst van de situatie.
“Het is duidelijk dat bedrijven op dit moment niet in staat zijn om chatbots zoals ChatGPT te laten voldoen aan de EU-wetgeving, wanneer ze data over individuen verwerken. Als een systeem geen nauwkeurige en transparante resultaten kan produceren, kan het niet worden gebruikt om data over individuen te genereren. De technologie moet de wettelijke vereisten volgen, niet andersom,” legt de Graaf uit.
De problemen strekken zich uit van technische hindernissen tot bredere uitdagingen op het gebied van regelgeving. Sinds het ontstaan van generatieve AI-tools, waaronder ChatGPT, worden ze nauwlettend in de gaten gehouden door Europese privacywaakhonden.
De Italiaanse DPA, bijvoorbeeld, legde begin 2023 beperkingen op aan de verwerking van data door ChatGPT op grond van onnauwkeurigheden.
Dit werd gevolgd door een gecoördineerde inspanning van de European Data Protection Board om de risico’s van dergelijke AI-platforms te beoordelen en te beperken.
De timing van deze juridische uitdagingen is bijzonder opmerkelijk. Tegelijkertijd was OpenAI in gesprek om een strategische alliantie aan te gaan met Worldcoin, een project dat mede is opgericht door Sam Altman, die ook OpenAI leidt.
Lees meer: 11 Beste ChatGPT Chrome-extensies om te bekijken in 2024
OpenAI’s potentiële samenwerking met Worldcoin zou echter extra lagen van juridische en ethische dilemma’s kunnen introduceren. Worldcoin’s benadering van het gebruik van biometrische data snijdt met OpenAI’s uitdagingen om de privacy en nauwkeurigheid van data te waarborgen.
Bovendien heeft Worldcoin te maken gehad met kritiek van wettelijke autoriteiten over de hele wereld, waaronder Kenia, Spanje en Argentinië, met betrekking tot het verzamelen van data. Deze synergie kan dus de weg vrijmaken voor innovatief technologiegebruik of een precedent scheppen voor verhoogde regelgevende interventies.
Disclaimer
Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.