Indeks
Administrerende direktør i Twitter, Elon Musk og historikeren kjent for boken En kort historie om menneskeheten, Yuval Noah Harari, blant andre spesialister, forskere og forskere, bestemte seg for å signere et brev der de ber om en pause i oppdateringen og utviklingen av AI.
Det aktuelle brevet ble produsert av Future of Life Institute (Institut for the Future of Life, i fri oversettelse) og anbefaler en pause i utviklingen av kunstig intelligens (AI) på minst seks måneder, som er gjennomsiktig. Lær mer om innholdet i dokumentet, se oversettelsen av hele teksten og hold deg oppdatert på diskusjonene rundt følgende emne.
Hva sier brevet mot AI om kunstig intelligens?
Selvstendig næringsvirksomhet og økningen av feilinformasjon er to av hovedproblemene med AI-teknologier som fremheves i brevet. Innholdet i teksten krever også at øyeblikket av suspensjon av utvikling med verktøy som f.eks GPT-4, midt på reisen og lignende AI-løsninger må være "offentlige og verifiserbare".
Når det gjelder investeringer omtaler brevet også hvordan OpenAI, Microsoft e Google er i et teknologikappløp uten å se nærmere på hvordan regjeringer og offentlige institusjoner sliter med å følge med på hvert nye skritt. Det vil si, ifølge dokumentet går AI-sektoren inn i en hastighet som blir stadig vanskeligere å følge, og til og med aktørene som er involvert i teknologien, anerkjenner dette.
"Hvis denne pausen ikke kan reguleres raskt, bør regjeringer gå inn og innføre en suspensjon"
brev fra Future of Life Institute

O tekst han nevner også AI-laboratorier som produserer teknologier, men som ikke er i stand til å gjøre nøyaktige vurderinger og er ikke engang i stand til å ha kontroll over disse digitale sinnene. Det som fascinerer underskriverne – fra Apple-medgründer Steve Wozniak til banebrytende forskere som Yoshua Bengio og Stuart Russell til tidligere Google-produktfilosof Tristan Harris – er spørsmål rundt omfanget av informasjonsspredning. usannheter, utskifting av menneskelige sinn og selve «kontrollen». av vår sivilisasjon». I denne forstand tar dokumentet også oppmerksomhet til det beste investeringsøyeblikket:
"Kraftige AI-systemer bør bare utvikles når vi er sikre på at effektene deres vil være positive og risikoen deres vil bli håndtert."
brev fra Future of Life Institute
Future of Life Institute og ansvarlig teknologi
Grunnlagt i 2015, fra en investering av Elon Musk Future of Life Institute søker å distansere nye teknologiske fremskritt fra mulige farer for livet, både for menneskeheten og for andre levende vesener. Organisasjonen tar ikke bare hensyn til AI, men overvåker også produksjoner innen områder som bioteknologi og kjernekraft. Dette instituttets innsats for å støtte teknologisk ansvar har som visjon en verden hvor sykdommer utryddes og demokratier styrkes rundt om i verden.

Future of Lifes handlinger ble anerkjent av FN (FN) i 2020: FN utnevnte instituttet som en representant for sivilsamfunnet i spørsmål som involverer AI. Tidligere i år måtte imidlertid presidenten for denne teknologivakthunden, Max Tegmark, be om unnskyldning for en feilsøkt investering i en høyreekstreme medieplattform, Sveriges Nya Dagbladet.
Hva er posisjonen til andre selskaper når det gjelder AI-utvikling?
Konsoliderte selskaper som f.eks Google e Microsoft unngikk å kommentere brevet fra Future of Life Institute. De to selskapene beveger seg i økende grad for å tilby AI-løsninger, i lys av produksjonene til OpenAI, selskapet som opprettet ChatGPT. Forresten, "moren" til en av de mest kjente AI-ene for øyeblikket mottok fra Microsoft 10 milliarder dollar i investering. Samtidig bruker selskapet opprettet av Bill Gates OpenAI-teknologi i sin søkemotor, the Bing.

Denne måneden publiserte tilfeldigvis Bill Gates til og med en brev der han tar for seg de mulige effektene AI-løsninger kan gi for fremtiden. Google opprettholder sine investeringer i kunstig intelligens gjennom Bard, som ennå ikke er fullt tilgjengelig for publikum.
Ekspert bekymringer om AI og GPT-4
Selv om det har blitt forbedret, verktøyet GPT-4 det gir fortsatt resultater med noen hallusinasjoner og kan betjene brukere som bruker skadelig språk. Men det er de som mener at pausen faktisk burde være å forstå mer om fordelene – og ikke bare skadene ved AI-teknologier. Dette mener Peter Stone, en forsker ved University of Texas i Austin (USA).

"Jeg tror det er verdt å ha litt erfaring med hvordan [AIer] kan brukes riktig eller ikke, før du fortsetter med å utvikle neste [teknologi]. Dette burde ikke være et kappløp for å produsere en ny modell for kunstig intelligens og frigjøre den før de andre.»
Peter Stone
I motsetning til denne posisjonen, en av underskriverne, Emad Mostaque, grunnlegger av selskapet Stabilitet AI (dedikert til verktøy med kunstig intelligens), fortalte Wired at AI-løsninger er en mulig trussel mot selve samfunnets eksistens. Han la også vekt på hvordan investeringer bør gjennomgås, og tok mer hensyn til hva som kan være i fremtiden for dette teknologikappløpet.
"Det er på tide å legge kommersielle prioriteringer til side og ta en pause til beste for alle, mer for å forske i stedet for å gå inn i et kappløp med en usikker fremtid."
Emad Mostaque
Brev mot AI: full oversettelse

Pause Giant AI-eksperimenter: Et åpent brev
Vi anbefaler alle laboratorier med kunstig intelligens (AI) om umiddelbart å pause trening på AI-systemer kraftigere enn GPT-4 i minst seks måneder
AI-systemer med intelligens som er i stand til å konkurrere med mennesker, kan utgjøre store risikoer for samfunnet og menneskeheten, som det fremgår av omfattende forskning fra Cornell University, bøkene Justeringsproblemet (Brian Christian, 2020), Å være menneske i en tidsalder av kunstig intelligens (Max Tegmark, 2017) og av andre studier – om fremskritt på området, etikk, innvirkning på arbeidsmarkedet, eksistensielle risikoer – i tillegg til å bli anerkjent av anerkjente AI-laboratorier. Som det står i Asilomars AI-prinsipper, "Avansert AI kan representere en dyp endring i livets historie på jorden, og må planlegges og administreres med omhu og med passende ressurser." Dessverre skjer ikke dette nivået av planlegging og ledelse, selv om AI-laboratorier de siste månedene har begynt et ut-av-kontroll-løp for å utvikle og utnytte stadig kraftigere digitale sinn som ingen – ikke engang skaperne deres – kan forstå. , forutsi, eller kontrollere pålitelig.
Nå er dagens AI-systemer i stand til å konkurrere med mennesker på oppgaver generelt, og vi må spørre oss selv: Vi må la maskiner oversvømme informasjonskanalene våre med proselytisme og usannheter? Vi må automatisere alle jobber, inkludert tilfredsstillende? Vi må utvikle ikke-menneskelige sinn slik at de til slutt kan overgå og overgå oss, gjøre oss foreldet og erstatte oss? Vi må risikere å miste kontrollen over sivilisasjonen vår? Slike beslutninger bør ikke delegeres til ikke-støttede teknologiledere. Kraftige AI-systemer bør bare utvikles når vi er sikre på at effektene deres vil være positive og risikoen vil bli håndtert.. Denne tilliten må være godt begrunnet og forsterket i forhold til omfanget av systemenes potensielle konsekvenser. En nylig OpenAI-posisjon om generativ kunstig intelligens sier at "på et tidspunkt kan det være viktig å ha en uavhengig gjennomgang, før du begynner å trene systemer i fremtiden, for mer avansert innsats, som vekstrategrensen for datamaskinen som brukes til å lage nye modeller [av AI]". Vi er enige. Tiden er nå.
derfor, Vi har rådet alle laboratorier for kunstig intelligens (AI) til umiddelbart å pause trening på AI-systemer kraftigere enn GPT-4 i minst seks måneder. Denne pausen skal være offentlig og etterprøvbar, og inkludere alle sentrale aktører. Hvis en slik pause ikke kan reguleres raskt, må herskerne gripe inn og innføre en suspensjon.
AI-laboratorier og uavhengige eksperter bør bruke denne pausen til i fellesskap å utvikle og implementere en serie delte sikkerhetsprotokoller for design og utvikling av avanserte AI-er, som blir grundig revidert og verifisert av tredjepartsevaluatorer. Disse protokollene må sikre at systemer styrt av disse standardene er sikre utover enhver rimelig tvil – et eksempel er OECDs vidt vedtatte AI-prinsipper, som krever at AI-systemer «fungerer riktig og ikke demonstrerer upålitelige sikkerhetsrisikoer». At ikke det betyr en pause i AI-utviklingen generelt, men rett og slett en utgang fra et farlig kappløp mot uforutsigbare "black box"-modeller, større og større og med nye evner.
AI forskning og utvikling må fokusere på å gjøre dagens kraftige toppmoderne systemer mer nøyaktige, sikre, tolkbare, transparente, robuste, justerte, pålitelige og lojale.
Parallelt må AI-utviklere jobbe med politiske beslutningstakere for å akselerere produksjonen av strenge AI-styringssystemer. De må minimum inneholde:
- nye og dyktige reguleringsmyndigheter dedikert til kunstig intelligens;
- verifisering og overvåking av svært kraftige AI-systemer med et stort bidrag i beregningskapasitet;
- herkomst- og merkevaresystemer for å hjelpe til med å skille ekte fra syntetiske modeller av digitale sinn, samt spore lekkasjer av disse teknologiene;
- et blomstrende økosystem for sertifisering og revisjon;
- skadeforpliktelse fra AI-systemer;
- sterk nok offentlig finansiering for teknisk forskning på AI-sikkerhet; Det er
- velfinansierte institusjoner for å håndtere alvorlige økonomiske og politiske konsekvenser som AI-er forårsaker (spesielt i forhold til demokrati).
Menneskeheten kan nyte en fruktbar fremtid med AI. Etter å ha lykkes med å lage kraftige AI-systemer, kan vi nå feire en "sommer med kunstig intelligens", der vi høster fruktene, konstruerer disse systemene til klar fordel for alle og gir samfunnet en sjanse til å tilpasse seg. Samfunnet har "trykket på pauseknappen" på andre teknologier med potensielt katastrofale effekter for alle - som kloning, eugenikk og genteknologi. Vi kan gjøre det samme her. La oss nyte en lang sommer med kunstig intelligens, ikke skynde oss inn i høsten.
Veja também:
Hvordan bruke Midjourney til å lage AI-drevne bilder
Kilde: Wired | Tech Crunch | Livets fremtid | Stedfortreder World News
Anmeldt av Glaucon Vital den 29.
Oppdag mer om Showmetech
Registrer deg for å motta siste nytt på e-post.