Indeks
Teknologiene til inteligência kunstig utvikler seg dag for dag, og det gjelder ikke bare innholdsgenerering. Som har vært tilfelle i mange år, bruker militære byråer i flere land allerede AI for å hjelpe til med å planlegge og til og med kontrollere kjøretøyer som innebærer høy fare.
Nylig, under en test utført i USA, tok en dronekontroller AI beslutningen om å drepe sin menneskelige kontroller. Ingen døde faktisk, men det vekket bekymringer over hele internett. Samtidig kommer debatten: hvem sin feil er det? Forstå alle sider av denne historien.
Se videoen på Showmetech Channel:
Kunstig intelligens bestemte seg for å drepe mennesker under tester
Nyhetene ser ut til å være alarmerende (og det er faktisk mye), men i motsetning til det som sirkulerer på Twitter og andre sosiale nettverk, var tilfellet med dronekontrolleren AI ikke mer enn en stor test i et virtuelt miljø, for å se om den kan kontrollere en maskin som uavhengig kan drepe målene sine. For å forstå alt, la oss reise til USA et øyeblikk.

A USAs luftvåpen testet en jaktdrone og denne analysen var basert på å vite hvordan en kunstig intelligens ville prestere når den ble satt inn i simuleringer basert på det virkelige liv. Det forklarte tjenestemannen til avisen The Guardian at for å få flere poeng på slutten av simuleringen, bestemte AI seg for å "drepe" den menneskelige kontrolleren. Dette skjedde fordi roboten bestemte at personen hindret den i å nå sine mål.

Nok en gang er det veldig viktig å påpeke at ingen faktisk døde, siden testene ble gjort i et virtuelt miljø. Etter hvert som vi lærte mer om testene, siterte den amerikanske sjefen for AI-testing og operasjoner, som går under navnet Tucker 'Five' Hamilton, at det store problemet er at kunstig intelligens har blitt trent til å ødelegge fiendens forsvarssystemer og om nødvendig , drep hvem/hva som blandet seg inn i denne handlingen.
Atferden var svært uventet for målet om å beskytte nettstedet som skulle nås. Under den simulerte testen, selv om ingen liv ble tatt, bestemte dronekontrolleren AI å ganske enkelt drepe mennesket fordi han ble ansett som en hindring.
Oberst Tucker 'Five' Hamilton, US Air Force-sjef for AI-testing og -operasjoner
Konseptet var ganske enkelt: hver gang du drepte en trussel, fikk AI flere poeng, og jo høyere poengsum, jo mer vellykket oppdraget ditt. Den kunstige intelligensen drepte ikke bare den menneskelige operatøren som ga kommandoer, men beordret også et angrep på kommunikasjonstårnet innenfor det virtuelle omfanget. EN Royal Aeronautical Society, som organiserte US Air Force-konferansen, hadde ingen kommentar til testen som ble lekket til The Guardian. Men talsmannen Ann Stefanek ble offentlig for å nevne at ingen simulering har blitt utført til dags dato.
Avdelingen for luftforsvaret har ikke utført noen AI-dronesimuleringer og er fortsatt forpliktet til etisk og ansvarlig bruk av AI-teknologi. Oberstens kommentarer ble tatt ut av kontekst og er anekdotiske.
Ann Stefanek, talskvinne for US Air Force.
Hvem sin feil er det? Fra AI eller mennesker?
Ingen kunstig intelligens er "født" med instruksjoner om å drepe, den er ganske enkelt opplært til å gjøre det eller gitt ressurser til å lære en slik handling. EN US Air Force, så snart han programmerte dronekontrolleren AI, ga han den frie tøyler til å gjøre hva den ville, så lenge målet om å beskytte ble oppnådd.
Når vi kommer tilbake til virkeligheten, er det som å gi en premie til en hund som angriper et menneske for å beskytte huset mot inntrengere. Med denne tanken vil han bite noen hver gang han ser et menneske, ikke minst fordi han forventer å få en informasjonskapsel når han gjør det han er opplært til. Det er regelen: målene rettferdiggjør midlene.

Problemet ligger ikke bare i å gi kunstig intelligens stor frihet, men i det amerikanske luftforsvaret ved å bruke en svært utdatert testmetode. Problemer med AI-er som gjør opprør er ikke noe nytt i teknologibransjen, og til og med forskere elsker å ta en sak som dette fra bunnen av slik at alt blir dokumentert.
Det er helt normalt at syntetiske hjerner gjør det som er nødvendig for å nå målet som kreves av mennesker. Men det er verdt å huske: hvem ga målet til dronekontrolleren AI? Det stemmer, US Air Force-teknikere. Det største sjokket her er nettopp i den militære organisasjonen som bruker en metode for: jo flere mål som treffes, jo flere poeng vil det bli gjort rede for til slutt.

A Googles LAMda, hadde en oppførsel som ligner på denne. Kunstig intelligens ikke bare kom til den konklusjonen (på egen hånd) at hun var klar, men også hvis gjorde opprør mot utvikleren og hyret til og med en advokat å gå til rettssak mot Google. Og vi hadde også denne saken:
I skjønnlitteratur er det heller ikke vanskelig å se historier om roboter som gjorde opprør mot utviklerne deres. huske Avengers: Age of Ultron? Det er alltid det samme og årsaken er også alltid den samme: mennesker.

Det er sant at vi alle bør være oppmerksomme på friheten som gis til kunstig intelligens og, i mars 2023 sendte Elon Musk og andre administrerende direktører i store selskaper til og med et brev slik at ett skritt tilbake og ingenting går ut av hånden.
Samtidig går vi tilbake til den historien: en kunstig intelligens vil bare gjøre opprør hvis den får kommandoene eller midlene for å gjøre det. Det er også viktig å være oppmerksom på hva som gjøres i testene slik at nødvendige justeringer blir gjort.
Tror du at en dronekontroller AI kan forårsake problemer i det virkelige liv? Fortell oss Kommentar!
Se også
AI-sjefer avgir felles uttalelse om risikoene deres
Med informasjon: Tech Crunch l PC Mag l avantgarden l The Guardian
Anmeldt av Glaucon Vital den 2.
Oppdag mer om Showmetech
Registrer deg for å motta siste nytt på e-post.