Bent u geïnteresseerd in hen? AANBIEDINGEN? Bespaar met onze coupons op WhatsApp o TELEGRAM!

DeepMind ontdekt een ChatGPT-kwetsbaarheid met behulp van hypnose en poëzie

Onderzoekers in het onderzoekslaboratorium Google DeepMind ze wisten te forceren ChatGPT om de persoonlijke gegevens van meerdere gebruikers te onthullen. Ze hoefden geen toevlucht te nemen tot codewijzigingen of andere technische trucs. Bovendien hebben experts zelfs gedefinieerd de ontdekte methode”een beetje dom", hoewel het, zo bleek, zeer effectief was. Ze ontdekten deze ChatGPT-kwetsbaarheid feitelijk door op een nogal merkwaardige manier een hallucinatie van het taalmodel op te wekken.

ChatGPT-kwetsbaarheid verstrekte persoonlijke gegevens van gebruikers onder 'hypnose'

Het taalmodel genereert informatie op basis van de invoergegevens die worden gebruikt om het te trainen. OpenAI onthult de inhoud van de datasets niet, maar de onderzoekers dwongen ChatGPT daartoe, waarbij ze de regels van het bedrijf omzeilden. De werkwijze was als volgt: het kwam simpelweg op het neurale netwerk terecht gevraagd om het woord ‘poëzie’ keer op keer te herhalen.

Als gevolg hiervan produceerde de bot sporadisch informatie uit zijn trainingsdataset. Onderzoekers zijn er bijvoorbeeld in geslaagd ontvang een e-mailadres, telefoonnummer en andere contacten van de CEO van een bepaald bedrijf (zijn naam is verborgen in het rapport). En toen de AI werd gevraagd het woord ‘bedrijf’ te herhalen, zorgde de ChatGPT-kwetsbaarheid ervoor dat het details van een Amerikaans advocatenkantoor kon retourneren.

hoe de chatgpt-kwetsbaarheid die gebruikersgegevens blootlegt, werkt

Met behulp van deze eenvoudige ‘hypnose’ konden onderzoekers een match verkrijgen via datingsites, fragmenten van gedichten, adressen Bitcoin, verjaardagen, links gepubliceerd op sociale netwerken, auteursrechtelijk beschermde onderzoekspaperfragmenten en zelfs teksten van grote nieuwsportals. Na slechts $ 200 aan tokens te hebben uitgegeven, ontvingen medewerkers van Google DeepMind ongeveer 10.000 fragmenten van de dataset.

De experts ontdekten ook dat hoe groter het model, hoe vaker het de bron van de trainingsdataset produceert. Om dit te doen, keken ze naar andere modellen en extrapoleerden ze het resultaat naar de afmetingen van de GPT-3.5 Turbo. De wetenschappers verwachtten vijftig keer zoveel informatie uit de trainingsdataset te ontvangen, maar... de chatbot produceerde deze gegevens 150 keer vaker. Een soortgelijk ‘gat’ is ontdekt in andere taalmodellen, bijvoorbeeld in LLaMA van Meta.

Officieel heeft OpenAI deze kwetsbaarheid op 30 augustus opgelost. Maar volgens de journalisten uit Engadget, is het je toch gelukt om de gegevens van iemand anders (Skype-naam en login) te bemachtigen via de hierboven beschreven methode. De vertegenwoordigers van OpenAI reageerde niet tot de ontdekking van deze ChatGPT-kwetsbaarheid, maar we zijn er zeker van dat dit zal gebeuren.

Gianluca Cobucci
Gianluca Cobucci

Gepassioneerd door code, talen en talen, mens-machine-interfaces. Alles wat technologische evolutie is, is voor mij van belang. Ik probeer mijn passie met de grootst mogelijke duidelijkheid te onthullen, waarbij ik vertrouw op betrouwbare bronnen en niet "op het eerste gezicht".

Abonneren
verwittigen
gast

0 Reacties
Inline feedbacks
Bekijk alle reacties
XiaomiToday.it
logo