Waarover heb je met ChatGPT gesproken? Er zijn inmiddels 100.000 gesprekken openbaar op Google: van bedrijfsgeheimen tot liefdesdrama's.

Kun je je voorstellen dat het meest intieme of meest schokkende gesprek dat je met ChatGPT had, uiteindelijk op Google belandt, waar iedereen met één klik toegang toe heeft? Voor duizenden ChatGPT-gebruikers is die nachtmerrie al werkelijkheid. Tussen de bijna 100.000 openbaar gemaakte chats bevindt zich van alles, van vertrouwelijke contractontwerpen tot ongezonden liefdesberichten – een stille getuigenis van hoe we met deze digitale tools omgaan.
Het tafereel doet denken aan de begindagen van sociale media, toen mensen berichten plaatsten zonder te beseffen dat de hele wereld ze kon zien. Dit keer hebben we het niet over vakantiefoto's of onschuldige reacties, maar over interacties met een AI die voor velen fungeerde als werkassistent , sentimentele biechtvader en improvisatieredacteur. De onvermijdelijke vraag is: hoe ver reikt onze verantwoordelijkheid als gebruikers, en hoe ver reikt die van de platforms die privacy beloven?
Het lek legt niet alleen een ontwerpfout bloot in een experimentele OpenAI-functie, maar opent ook een verontrustend inkijkje in het menselijk gedrag ten opzichte van technologie: we vertrouwen geheimen en belangrijke documenten toe aan een algoritme, zonder ons af te vragen of de "digitale kluis" ervan wel echt veilig is.
Hoe bijna 100.000 ChatGPT-gesprekken zijn gelektHet verhaal begint met een ogenschijnlijk onschuldige functie: de 'deel'-knop in ChatGPT. Tot een paar dagen geleden kon elke gebruiker een openbare link naar zijn of haar gesprek genereren om naar derden te sturen . Deze links waren, vanwege hun open karakter, indexeerbaar door zoekmachines zoals Google.
Het resultaat was een voorspelbare reeks gebeurtenissen. Eerst deelden sommige gebruikers links met gevoelige content zonder te beseffen dat deze openbaar toegankelijk was. Vervolgens crawlde Google die URL's en nam ze op in de index. Ten slotte begonnen onderzoekers en nieuwsgierige individuen de chats te lokaliseren en te verzamelen, wat resulteerde in een enorm archief van bijna 100.000 gesprekken.
OpenAI bevestigde de omvang van het lek en reageerde. Dane Stuckey, CISO (Chief Security Officer), verklaarde dat ze de functie hadden verwijderd om te voorkomen dat mensen per ongeluk informatie zouden delen die ze niet openbaar wilden maken. Ze hebben ook een de-indexeringsproces in zoekmachines gestart , hoewel het te laat is om de blootstelling volledig ongedaan te maken: derden hebben het materiaal massaal gedownload.
Welk type informatie werd blootgesteld?De dataset onthult de diversiteit aan manieren waarop gebruikers ChatGPT gebruiken. Onder de geïndexeerde gesprekken bevinden zich:
- Kopieën van vermeende geheimhoudingsverklaringen van OpenAI en andere bedrijven.
- Op verzoek van bedrijfseigenaren ontwerpcontracten opstellen waarin de bedrijfsnamen en bedrijfsgegevens worden vermeld.
- Emotionele en persoonlijke consulten, zoals brieven aan ex-partners of dilemma's in romantische relaties.
- Alledaagse opdrachten, zoals het schrijven van LinkedIn-berichten of het proeflezen van teksten.
Deze mix van het redelijke en het banale laat een fenomeen zien waar privacy-experts al jaren voor waarschuwen: elke functie voor het delen van gegevens, hoe onschuldig ook, kan een lek voor privé-gegevens opleveren als de reikwijdte ervan niet duidelijk wordt gecommuniceerd.
De implicaties voor privacy en veiligheidDe blootstelling van deze gesprekken roept verschillende cruciale vragen op. Ten eerste is er de gedeelde verantwoordelijkheid. OpenAI bood een opt-insysteem aan, maar veel gebruikers begrepen waarschijnlijk niet dat het aanvinken van het vakje 'delen' wereldwijde blootstelling impliceerde. Deze kloof tussen perceptie en realiteit is gebruikelijk in het digitale tijdperk: we gaan ervan uit dat privacy de norm is, terwijl in werkelijkheid elke online interactie sporen nalaat.
Bovendien creëert het feit dat derden de dataset al hebben gedownload een aanhoudend risico. Zelfs als OpenAI erin slaagt Google ertoe te bewegen de links te verwijderen , kunnen lokale kopieën circuleren op forums, in gelekte databases en zelfs op het dark web. Concurrerende bedrijven, aanvallers of gewoon nieuwsgierige mensen hebben toegang tot materiaal dat persoonlijke en bedrijfsinformatie bevat.
Ten slotte onderstreept het lek de noodzaak van AI-aangepaste digitale geletterdheid. Het gebruik van ChatGPT als veilige persoonlijke assistent zonder de werking ervan te begrijpen, stelt individuen en bedrijven bloot aan reputatie- en juridische risico's.
Lessen voor de toekomst van AI en privacyDe aflevering van de 100.000 blootgestelde chats is een waarschuwing voor het tech-ecosysteem. AI-platforms zullen transparanter moeten zijn over hoe hun deelopties werken en deze waarschijnlijk moeten ontwerpen met het principe van privacy-by-default in gedachten.
Voor gebruikers is de les tweeledig. Ten eerste: delegeer de bewaring van vertrouwelijke gegevens niet onnadenkend aan een cloudsysteem zonder duidelijke beveiligingsgaranties. Ten tweede: besef dat elke knop 'delen' of 'openbaar maken' uitgebreider kan zijn dan hij lijkt.
eleconomista