1. Kvinne med langt, mørkt hår, smilende med et selvsikkert uttrykk.

Microsoft viser AI som genererer hyperrealistiske deepfakes fra 1 bilde

Avatar av Alexandre Marques
VASA-1, Microsofts nye AI, har muligheten til å lage realistiske videoer fra ett enkelt bilde, med imponerende resultater. Forstå.

O VASA-1 er den nyeste AI fra Microsoft, designet for å lage hyperrealistiske dype forfalskninger fra et enkelt bilde eller tegning av en person. Verktøyet imponerer med sin evne til nøyaktig å gjengi ansiktsuttrykk og hodebevegelser, og gir en illusjon av at personen på bildet faktisk uttrykker noe. I demonstrasjoner presentert av Microsoften VASA-1 imponert ved å replikere leppebevegelser synkronisert med lyden og skape uttrykk som ikke er til stede i de originale bildene, noe som resulterer i ekstremt overbevisende videoer.

Det nye verktøyet vekker bekymring for etisk bruk av dypfalske teknologier, ettersom dets evne til å lage realistiske videoer med lite inputinformasjon potensielt kan brukes til å lage falske nyheter, ærekrenkende videoer og til og med svindel. derfor Microsoft arbeider for at VASA-1 brukes ansvarlig og etisk.

Hva er VASA-1 og hvordan fungerer det?

Det virker sant, men videoen ovenfor er bare en deepfake. Den VASA-1 representerer et betydelig fremskritt i å generere realistiske snakkende ansikter gjennom kunstig intelligens. O VASA-1 er i stand til å produsere videoer av snakkende ansikter fra ett enkelt stillbilde, enten det er et bilde eller en tegning, av en person og et lydklipp med tale. Disse resulterende videoene har ikke bare leppebevegelser synkronisert med lyden, men også et bredt spekter av naturlig ansiktsdynamikk og hodebevegelser, som oppnår et høyt nivå av realisme og livlighet.

I motsetning til tidligere metoder, er VASA-1 nærmer seg genereringen av snakkende ansikter helhetlig, og vurderer alle mulige ansiktsbevegelser, som uttrykk, øyebevegelser og blink, som unike latente variabler. Videre har VASA-1 inkorporerer valgfrie kondisjoneringssignaler, som primær blikkretning, hodeavstand og emosjonell forskyvning, i læringsprosessen. Dette gjør generativ modellering av komplekse distribusjoner mer håndterlig og øker generasjonsregnskapet. I videoen nedenfor, for eksempel VASA-1 demonstrerte forskjellige blikkretningsalternativer i deepfake.

En av de mest imponerende aspektene ved VASA-1 er dens evne til å generere snakkende ansikter i sanntid, noe som gjør den ideell for interaktive kommunikasjonsapplikasjoner. Ved å balansere videogenereringskvalitet med beregningseffektivitet, kan VASA-1 Det overgår eksisterende metoder betydelig, og bringer oss nærmere en fremtid der AI-drevne digitale avatarer kan samhandle med oss ​​like naturlig og intuitivt som interaksjoner med ekte mennesker.

Representasjonen av VASA-1 kan endre utseendet, tredimensjonal posisjon av hodet og ansiktsdynamikk, som tillater separat kontroll av attributter og redigering av generert innhold. Dette betyr at, selv med et enkelt inngangsbilde, er det mulig å generere videoer av snakkende ansikter med forskjellige bevegelsessekvenser eller bruke forskjellige bilder på samme bevegelsessekvens, noe som resulterer i en lang rekke tilpasningsmuligheter og kontroll over det genererte innholdet.

Farene ved deepfakes

Hyperrealistiske deepfakes
Deepfakes brukes som politiske våpen og er i stand til å få en persons ansikt til å demonstrere eller si noe som ikke er virkelig uttrykt. Foto: Reproduksjon / Internett.

O VASA-1, til tross for mulige positive applikasjoner, presenterer også betydelige risikoer knyttet til opprettelsen av deepfakes. Denne teknologien kan misbrukes til å lage ekstremt overbevisende falske videoer der en person er avbildet som gjør eller sier noe som aldri har skjedd. Disse dype forfalskningene har potensial til å forårsake alvorlig skade, for eksempel å spre feilinformasjon, manipulere offentlige meninger, ærekrenke enkeltpersoner og til og med oppfordre til sosiale eller politiske konflikter.

Spesielt i valgperioder kan teknologien generere problemer som oppstår fra ondsinnet bruk med skapelser av politiske dypforfalskninger. Med denne teknologien er det mulig å lage videoer av politikere eller offentlige personer som holder falske taler eller utfører kompromitterende handlinger. Disse videoene kan brukes til å påvirke valg, undergrave offentlig tillit til ledere og institusjoner og generere politisk ustabilitet.

Bruken av Deepfakes har vakt oppmerksomhet og bekymring hos flere regjeringer rundt om i verden. I Brasil er TSE forbudt bruk av deepfakes i valg, med tiltaket vedtatt i februar i år. Dette forbudet tar sikte på å forhindre manipulering av informasjon og beskytte integriteten til valgprosessen, og forhindre at falske videoer og lydopptak brukes til å skade eller favorisere kandidater. Uriktig bruk av deepfakes kan føre til tilbakekall av mandatet eller registrering av kandidatur.

Spesielt Kina har vært banebrytende for omfattende regulering av bruken av disse teknologiene. Dens lovgivning, bredere enn den som er vedtatt av noen vestlige regjeringer, blir sett på som et instrument for å opprettholde sosial stabilitet. Det forbyr eksplisitt opprettelse av dype forfalskninger uten samtykke og krever tydelig identifikasjon av AI-generert innhold.

Et alarmerende eksempel skjedde etter den russiske invasjonen av Ukraina, da en dypfalsk video ble bredt sirkulert på sosiale medier. I den dukket den ukrainske presidenten Volodymyr Zelensky opp for å beordre troppene sine til å overgi seg, noe som faktisk aldri skjedde. Deepfakes kan dessuten brukes mer utbredt i hverdagssituasjoner, som å lage falske videoer av kjendiser, venner eller familie, skape forvirring og skade omdømmet til de involverte.

utgivelsesprognose

Hyperrealistiske deepfakes
Microsoft uttrykker også bekymring for misbruk av VASA-1. Foto: Reproduksjon / Internett.

A Microsoft gjenkjenner risikoen forbundet med VASA-1 og er forpliktet til å sikre at verktøyet utvikles og brukes ansvarlig. På grunn av potensielle etiske, personvern- og sikkerhetsproblemer som VASA-1 kan generere Microsoft Det er ingen utgivelsesdato for allmennheten ennå.

Selskapet jobber aktivt med å implementere sikkerhets- og kontrolltiltak som bidrar til å redusere risikoen for teknologimisbruk. Utviklere jobber med å forbedre ektheten til genererte videoer og utvikle deepfake-deteksjonsmetoder som kan bidra til å bekjempe misbruk av teknologien, før de vurderer utgivelsen til allmennheten.

Se denne og andre nyheter på Showmetech TRIO:

Veja também:

https://www.showmetech.com.br/como-criminosos-clonam-pessoas-com-inteligencia-artificial

Kilder: PCMag, Microsoft e Skjorter

Anmeldt av Glaucon Vital den 22.


Oppdag mer om Showmetech

Registrer deg for å motta siste nytt på e-post.

Relaterte innlegg