Bent u geïnteresseerd in hen? AANBIEDINGEN? Bespaar met onze coupons op WhatsApp o TELEGRAM!

AI Act in Europa: adoptie stuit op obstakels. Wat is de huidige situatie?

Het wachten op de goedkeuring van'AI-wet van de Europese Unie blijft zich uitbreiden. Ondanks de verwachtingen lijkt de weg naar een gemeenschappelijke regulering van kunstmatige intelligentie in Europa stil te liggen lang en kronkelig. De verdeeldheid onder de Europese wetgevers over de regulering van de onderliggende modellen blijft bestaan, en nu 2023 ten einde loopt, lijkt de mogelijkheid dat de AI-wet dit jaar in wetgeving zal worden omgezet steeds kleiner te worden.

Meningsverschillen tussen wetgevers

Het debat over de AI-wet is nog steeds verhit onder de Europese wetgevers ze lijken het niet eens te zijn over de manier waarop basismodellen moeten worden gereguleerd. Als gerapporteerd da ReutersSpanje dringt aan op een regelmatigere controle van kwetsbaarheden en op het creëren van een regelgevingssysteem dat gelaagd is op basis van het aantal gebruikers van een model.

Dit scenario leidde tot drie trialogen, driepartijengesprekken tussen de Europees Parlement, The Raad van de Europese Unie en Europese Commissie, met een vierde bijeenkomst gepland voor deze week. Als er geen akkoord wordt bereikt, is er een nieuwe bijeenkomst gepland voor december, wat de bezorgdheid doet rijzen dat een besluit tot volgend jaar zou kunnen worden uitgesteld.

ai act infographic met europese vlag en sterren van europese landen

Zie ook: Wet op de digitale markten en Wet op digitale diensten: wat ze zijn, goed uitgelegd

Belangrijkste voorstellen van de AI-wet

In een van de ontwerpen van de AI-wet wordt voorgesteld dat de Ontwikkelaars van basismodellen evalueren potentiële risico'sTest de modellen tijdens het ontwikkelingsproces en onderzoek de modellen nadat ze op de markt zijn gebracht bias in trainingsgegevens, valideer de gegevens en publiceer technische documenten voordat ze worden vrijgegeven. Deze aanpak heeft tot doel ervoor te zorgen dat AI-innovaties plaatsvinden binnen een kader van veiligheid en transparantie.

Vooroordelen (of vooroordelen) in kunstmatige intelligentie verwijzen naar een systematische trend in gegevens of patronen die daartoe leidt oneerlijke of onnauwkeurige resultaten. Deze vooroordelen kunnen voortkomen uit verschillende bronnen, waaronder de trainingsgegevens die worden gebruikt om de AI-modellen te ‘leren’.

Als de trainingsgegevens bias bevatten, bijvoorbeeld reflecteren sociale stereotypen o discriminatiezal het AI-model deze vooroordelen leren en reproduceren in zijn voorspellingen of beslissingen. Het elimineren of beperken van vooroordelen is van cruciaal belang om ervoor te zorgen dat AI-systemen eerlijk en betrouwbaar functioneren.

Hoe zit het met kleine bedrijven?

Sommige open-sourcebedrijven hebben er bij de EU op aangedrongen beschouw kleine bedrijven in de discussie, met het argument dat sommigen het misschien moeilijk vinden om aan de voorgestelde regels te voldoen. Op mondiaal vlak wordt de AI-wet van de EU door velen, waaronder enkele Amerikaanse overheidsfunctionarissen, gezien als potentieel voorbeeld te volgen bij het opstellen van regelgeving overGeneratieve AI.

Hoewel de EU een van de eerste regio’s was die voorgestelde wetgeving besprak, ging zij langzamer te werk dan andere internationale spelers, zoals de China die zijn regels al in augustus van dit jaar lanceerde.

Gianluca Cobucci
Gianluca Cobucci

Gepassioneerd door code, talen en talen, mens-machine-interfaces. Alles wat technologische evolutie is, is voor mij van belang. Ik probeer mijn passie met de grootst mogelijke duidelijkheid te onthullen, waarbij ik vertrouw op betrouwbare bronnen en niet "op het eerste gezicht".

Abonneren
verwittigen
gast

0 Reacties
Inline feedbacks
Bekijk alle reacties
XiaomiToday.it
logo