Bent u geïnteresseerd in hen? AANBIEDINGEN? Bespaar met onze coupons op WhatsApp o TELEGRAM!

OpenAI creëert een team voor 'catastrofale' risico's van AI. Daarom baart het ons zorgen

OpenAI, een bedrijf dat nu voorop loopt op het gebied van kunstmatige intelligentie, onlangs aangekondigd de oprichting van een nieuw team met de specifieke taak van het evalueren en beperken van potentieel catastrofale risico’s die gepaard gaan met de voortschrijdende AI-gerelateerde technologieën. Deze stap benadrukt het groeiende belang van het proactief aanpakken van de uitdagingen en gevaren die generatieve modellen met zich mee kunnen brengen. Het is duidelijk dat ze niet goed worden gecontroleerd.

Risico-identificatie door OpenAI

Terwijl kunstmatige intelligentie zich snel ontwikkelt, ontstaan ​​er nieuwe risico’s die ernstige gevolgen kunnen hebben op wereldschaal. Hiervoor zal het nieuwe OpenAI-voorbereidingsteam zich inzetten tekenen, valutare, voorzien e beschermen tegen deze potentiële problemen. Onder de geïdentificeerde risico's zijn: bedreigingen nucleair, een thema dat de urgentie van verantwoord handelen op het gebied van AI benadrukt.

Naast nucleaire dreigingen zal het team zich ook richten op middelengerelateerde gevaren chemisch, biologisch en radiologisch, alsmede op ffenomeen van zelfreplicatie van kunstmatige intelligentie, of het vermogen van een kunstmatig intelligentiesysteem om zichzelf autonoom te repliceren. Andere aandachtsgebieden zijn onder meer het vermogen van AI om mensen te misleiden bedreigingen alle internetveiligheid.

Voordelen en uitdagingen van geavanceerde AI

OpenAI erkent dat grensverleggende AI-modellen, die de mogelijkheden van de meest geavanceerde bestaande modellen overtreffen, daartoe het potentieel hebben komt de hele mensheid ten goede. En nee, in tegenstelling tot wat je denkt, deKunstmatige intelligentie is er niet om onze banen te stelen maar eerder om het te creëren.

Maar met grote macht gaat ook een grote verantwoordelijkheid gepaard. Het is daarom essentieel om je te ontwikkelen beleid geïnformeerd over de risico's, zodat u dat kunt doen AI-modellen evalueren en monitoren, om ervoor te zorgen dat de voordelen groter zijn dan de daaraan verbonden risico's.

openai biedt beloningen voor het vinden van bugs in chatgpt

Zie ook: DeepMind heeft de oplossing om AI-risico’s te voorkomen

De leiding van dit nieuwe team is toevertrouwd aan Alexander Madry, een leidende figuur op het gebied van machine learning. Momenteel met verlof van hem rol van directeur van MIT's Centrum voor inzetbare machine learning, Verstandig zal de inspanningen coördineren om een ​​risicogeïnformeerd ontwikkelingsbeleid te ontwikkelen en in stand te houden.

Op weg naar een mondiale prioriteit

De CEO van OpenAI, Sam Altman, het is niet nieuw tot bezorgdheid over de potentieel catastrofale risico’s van AI. Hij suggereerde dat de behandeling van AI-technologieën peven serieus genomen als die van kernwapens, waarbij de noodzaak wordt benadrukt van een collectieve inspanning om de uitstervingsrisico's die aan AI verbonden zijn, te beperken. Dit nieuwe team vertegenwoordigt een concrete stap in de richting van het realiseren van deze visie en benadrukt de toewijding van OpenAI om bij te dragen aan een verantwoord beheer van kunstmatige intelligentie.

Gianluca Cobucci
Gianluca Cobucci

Gepassioneerd door code, talen en talen, mens-machine-interfaces. Alles wat technologische evolutie is, is voor mij van belang. Ik probeer mijn passie met de grootst mogelijke duidelijkheid te onthullen, waarbij ik vertrouw op betrouwbare bronnen en niet "op het eerste gezicht".

Abonneren
verwittigen
gast

0 Reacties
Inline feedbacks
Bekijk alle reacties
XiaomiToday.it
logo