Bent u geïnteresseerd in hen? AANBIEDINGEN? Bespaar met onze coupons op WhatsApp o TELEGRAM!

Hoe taalkundige AI is geëvolueerd en hoe we bij ChatGPT zijn uitgekomen

De intelligentie artificiale vandaag ligt het op ieders lippen. We weten inmiddels hoe we het moeten gebruiken: ga gewoon het internet op en gebruik platforms zoals ChatGPT, Dall-E en Synthesia. In dit verband bereiden we een interessant artikel voor over 10 websites die kunstmatige intelligentie gebruiken om heel verschillende dingen te doen. Maar dat gezegd hebbende, laten we het voorbeeld nemen van de meest gebruikte AI. Hoe is het geboren? hoe we tot de versie zijn gekomen die we vandaag allemaal kunnen gebruiken gratis?

Tegenwoordig gebruiken velen van ons ChatGPT, maar niet iedereen weet wat erachter zit en hoe we daar zijn gekomen. Hier is een tijdlijn van de jaren 80 tot nu

Laten we beginnen bij de jaren 80: terugkerende neurale netwerken

ChatGPT is een versie van GPT-3, een zeer groot taalmodel ontwikkeld door OpenAI. Taalmodellen zijn een soort van neuraal netwerk die op heel veel teksten is getraind. Neurale netwerken zijn software die is geïnspireerd op de manier waarop neuronen in het menselijk brein met elkaar communiceren. Aangezien elke tekst is samengesteld uit reeksen letters en woorden van verschillende lengte, hebben taalmodellen een soort neuraal netwerk nodig dat dit soort gegevens kan begrijpen. De terugkerende neurale netwerken (Terugkerende neurale netwerken) uitgevonden in de jaren 80, kunnen woordreeksen aan, maar zijn traag te trainen en kunnen eerder geleerde woorden in een reeks vergeten. LSTM's konden tekstreeksen van enkele honderden woorden aan, maar hun taalkundige mogelijkheden waren beperkt. Wat zijn? Afkorting voor "Lange korte termijn geheugen"of"lange termijn geheugen” is een kunstmatig neuraal netwerk dat wordt gebruikt op het gebied van kunstmatige intelligentie 

chatgpt ai bot kunstmatige intelligentie

Zie ook: Google bevestigt de compatibiliteit van inhoud gegenereerd door Chatbot en AI

2017: het jaar van de doorbraak van kunstmatige intelligentie met de Transformers

De doorbraak die heeft geleid tot de huidige generatie grote taalmodellen kwam toen een team onderzoekers van Google de Transformatoren, een type neuraal netwerk dat kan bijhouden waar elk woord of elke zin in een reeks voorkomt. U zult zelf begrijpen dat het grootste probleem van LSTM is overwonnen. Maar hoe deden ze het? Het concept van toegepaste taalkunde doet zijn intrede in de technologie. De betekenis van een woord hangt vaak af van de betekenis van andere woorden die ervoor of erna komen. Deze bijhouden Contextuele informatie, kunnen Transformers langere tekstreeksen verwerken en de betekenis van woorden nauwkeuriger vastleggen. "Hotdog" heeft bijvoorbeeld een heel andere betekenis in de zinnen "Ik heb liever hamburgers dan hotdogs"En"Hotdogs worden het lekkerst gegeten met mosterd“. In wezen heeft contextuele informatie, wat mensen begrijpen en machines niet, het mogelijk gemaakt om een ​​verschil te maken.

2018-2019: de jaren van GPT-ontwikkeling

De eerste twee grote taalmodellen van OpenAI kwamen binnen enkele maanden na elkaar aan. Het bedrijf wilde multifunctionele en algemene AI ontwikkelen en is van mening dat grote taalmodellen een belangrijke stap zijn in de richting van dit doel. Op deze manier kan de software zoek zelf patronen in de data, zonder te horen wat ze kijken of lezen. Veel eerdere successen op het gebied van machine learning waren gebaseerd op gesuperviseerd leren en geannoteerde gegevens, maar handmatige gegevenslabeling is langzaam werk dat de omvang van beschikbare gegevenssets voor training beperkt. Het was de GPT-2 om de grootste opschudding te veroorzaken. OpenAI zei zelfs dat het zo bezorgd was dat mensen GPT-2 zouden gebruiken.”om misleidende, vervormde of beledigende taal te genereren” die niet het volledige model zou vrijgeven. Maar dat is niet alles.

Als GPT-2 indrukwekkend was, heeft het vervolg op OpenAI, de GPT-3, letterlijk een revolutie teweeggebracht. Zijn vermogen om mensachtige teksten genereren betekende een grote sprong voorwaarts. GPT-3 kan vragen beantwoorden, documenten samenvatten, verhalen in verschillende stijlen genereren, vertalen tussen Engels, Frans, Spaans en Japans, en nog veel meer. Het kan echter nog steeds geen mens vervangen, omdat het de fundamentele kenmerken van de mensheid mist. We hebben er uitgebreid over gesproken Dit artikel.

Bron | MIT

Gianluca Cobucci
Gianluca Cobucci

Gepassioneerd door code, talen en talen, mens-machine-interfaces. Alles wat technologische evolutie is, is voor mij van belang. Ik probeer mijn passie met de grootst mogelijke duidelijkheid te onthullen, waarbij ik vertrouw op betrouwbare bronnen en niet "op het eerste gezicht".

Abonneren
verwittigen
gast

0 Reacties
Inline feedbacks
Bekijk alle reacties
XiaomiToday.it
logo