Ja, du leste riktig. Midt i så mange bisarre teknologiske fremskritt, er en av dem at Google lærer til Kunstig intelligens å forklare vitser for deg. Denne ideen kom fra en refleksjon av forskere fra Google som er ute etter å utvikle flere og flere chatbots med den surrealistiske evnen til å høres ut som et menneske.
Selvfølgelig, når det kommer til kunstig intelligens, er folks første reaksjon å ta et skritt tilbake, siden det i bunn og grunn er en teknologi som gjengir det den læres og ikke noe mer enn det – et faktum som kan gi høye feilmarginer til resultater. Men det som utvikles er mer enn den "operative" delen. O Natural Language Processing (NLP) det jobbes med det slik at maskiner kan assimilere og reagere i henhold til menneskelig språk og kontekst.
Hvordan skjer dette?
Os store språkmodeller (Large Language Models/LLMs på engelsk) er kunstig intelligens-verktøy som kan lese, oppsummere, oversette tekster og til og med forutsi fremtidige ord i setninger som ligner på hvordan mennesker vanligvis snakker og skriver. O Google Disk, for eksempel, tilbyr allerede denne funksjonen.
Som et praktisk eksempel har vi GPT-3 som øker stadig. Denne AI-teknologien tillater chatbots utvikle bisarr nøyaktig "menneskelig kommunikasjon". Siden har forskergruppen Google startet en trening Natural Language Processing, kalt PALM, som til tross for å generere tekster i LLM-formen, også utvikles for å tolke og forklare vitser.

I eksemplene på artikkelen som forklarer mer om prosjektet, demonstrerer forskerteamet prototypens evne til å utvikle logiske resonnementer og andre komplekse språksituasjoner som krever tett kunnskap om kontekster – noe som inntil da var en evne tilskrevet menneskelig kapasitet. For å oppnå denne bragden tar de i bruk en teknikk knyttet til tankekjeden. Denne metoden forbedrer systemytelsen gjennom simuleringer av trinnene som mennesker utvikler i tankeprosessen når de prøver å løse logiske problemer.
Og lagene stopper ikke der. Med utviklingen av denne teknologien kan kunstig intelligens gå dypere, gjenkjenne og tolke vitser – selv de spøkene for å forvirre folk.

Exemplo: Hva er forskjellen mellom en sebra og en paraply? Det ene er et stripete dyr som minner om hester, og det andre er et apparat du bruker for å stoppe regnet fra å falle på deg.
Forklaring: denne vitsen er faktisk en anti-spøk. Haken er at svaret er åpenbart, så vitsen viser seg å være det faktum at du forventet et morsomt svar.
Bak PaLMs tankekjede-metode ligger en av de største databasene med språkmodeller som noen gang er bygget, med totalt 540 milliarder parametere til dags dato. I dette tilfellet forstås "parametere" som elementer som trenes opp under systemets læringsprosess hver gang det mates med nye kontekstualiseringsdata.
Denne veksten tillot teamet av forskere fra Google nå et bredt spekter av resultater av høy kvalitet uten å måtte dedikere innsats til å trene AI for spesifikke og individuelle sammenhenger fra sak til sak. Det vil si at her har vi et systems evne til å lære et bredt spekter av komplekse funksjoner fra oppgaver med få treningseksempler.
Etiske risikoer i prosjektet
Selv om teknikken for utviklingen GPT-3 blir stadig mer traktert, er mange eksperter på etikk i teknologi mot disse prosjektene som involverer store språkmodeller og bruken av kunstig intelligens som helhet. En av dem er forskeren Timnit Gebru, en informatiker og respektert forsker som ble utvist fra AI-etikkteamet ved Google i 2020 etter å ha skrevet en artikkel der de var uenige om utviklingen av prosjektet.

I teksten til gebru og hans medforfattere diskuteres det faktum at de store LLM-modellene utviklet av teamet av forskere fra Google de er i seg selv risikable og kan være potensielt skadelige for personer som er en del av sosiale grupper som anses som en minoritet, etter at alle retningslinjer av denne typen ennå ikke er lest av mekanismen. selv om GPT-3 kan leses som en gjeldende teknologi, den har spesielt en tilbakevendende historie fordomsfulle svar Til og med rasist.
Ifølge et utdrag fra artikkelen av gebru, "det meste av språkteknologi er faktisk konstruert for å møte, først og fremst, behovene til de som allerede har flere privilegier i samfunnet". Hun legger videre til:
"Selv om dokumentasjon åpner for mulig ansvar, på samme måte som vi kan holde forfattere ansvarlige for deres produserte tekster, opprettholder udokumenterte opplæringsdata skade uten klage. Hvis treningsdataene anses for store til å bli dokumentert, kan man ikke forsøke å forstå dens egenskaper for å redusere noen av disse dokumenterte eller til og med ukjente problemene.»
Timnit Gebru, etikkspesialist i kunstig intelligens
Hva synes du om fremskritt innen teknologi knyttet til kunstig intelligens? Fortell oss i kommentarene!
Se også:
Videospill som fag i skolen? Forstå
Hvordan YouTubere endrer måten vi bruker nyheter på
Kilde: vice
Tekst korrekturlest av: iris xavier.
Oppdag mer om Showmetech
Registrer deg for å motta siste nytt på e-post.