Indeks
Bilder og videoer generert med AI (Kunstig intelligens) har vært snakk om hele internett en stund nå. Enten du skal lage en avatar eller en spesiell datevideo, er disse kreasjonene veldig tilstede i hverdagen på nettet, men de forveksles ofte med ekte bilder, noe som kan føre til spredning av falske nyheter - falske nyheter. Et av de mest berørte publikummet tilhører aldersgruppen over 50 år, spesielt eldre, og et av stedene som inneholder mest misvisende bilder generert av AI er Facebook . Sjekk ut noen data fra publiserte studier om emnet.
Forskningsdata
Innholdet generert av inteligência kunstig har blitt stadig mer populært, spesielt på sosiale medier, med bilder som passer inn i uhyggelig dal - Hvor uhyggelig dal. Dette konseptet refererer til bilder som virker ekte, men som har kunstige elementer som forårsaker ubehag for de som ser dem. Selv om det er stor likhet med ekte mennesker, har bilder i Uncanny Valley en kunstig karakteristikk, selv om de ligner mye på det naturlige. Denne oppfatningen er tilsynelatende relatert til det meste unge.
Eldre mennesker har problemer med å identifisere disse merkelige, unaturlige elementene i media generert av kunstig intelligens, noe som gjør dem mer sannsynlig å bli lurt. Kunst produsert av AI Det er ikke så åpenbart for alle, og forskning viser at folk over 50 faller masse for disse visuelle triksene på sosiale medier.
Plattformer som Facebook har blitt stadig mer populært blant eldre og eldre på jakt etter underholdning og selskap, ettersom yngre brukere har migrert til mer aktuelle apper som Instagram eller TikTok. Tilsynelatende har Facebooks algoritme med vilje rettet AI-genererte bilder inn i brukernes feeds med sikte på å selge produkter og tiltrekke følgere, ifølge en artikkel av forskere ved Facebook. Universitetet i Stanford og Georgetown University.
Forskere har fortsatt ikke definitive svar om de psykologiske virkningene av kunst generert av kunstig intelligens, siden bildegeneratorer ble offentlige nylig, rundt to år. Men å forstå hvorfor eldre venner og slektninger kan føle seg forvirret kan gi viktige ledetråder for å forhindre at de blir ofre for svindel eller feilinformasjon.
Å forstå hvordan dette scenariet utspiller seg er viktig fordi teknologiselskaper som Google har en tendens til å ignorere eldre brukere under intern testing, ifølge Bjørn Herrmann, kognitiv nevroforsker ved universitetet i toronto som studerer effekten av aldring på kommunikasjon.
Selv om aldringsprosessen – spesielt den kognitive prosessen – kan virke som den mest åpenbare forklaringen på denne inkompatibiliteten med dagens teknologi, tyder tidlig forskning på at mangel på erfaring og kjennskap til AI kan bidra til å forklare forståelse blant yngre publikum og de eldste. Undersøkelsen, utført av nesten 1.300 nordamerikanske voksne på 50 år og over, viser at kun 17 % av deltakerne sa at de hadde lest eller hørt om AI.
Så langt ser de få eksperimentene for å analysere eldre menneskers oppfatning av AI ut til å være nær det som skjer på Facebook. I en studie nylig publisert i tidsskriftet Vitenskapelige rapporter, viste forskere 201 deltakere en blanding av AI- og menneskeskapte bilder og vurderte deres svar basert på faktorer som alder, kjønn og holdninger til teknologi. Teamet fant at eldre deltakere var mer sannsynlig å tro at de AI-genererte bildene ble laget av mennesker.
Mens forskning på folks oppfatning av AI-generert innhold er begrenset, har forskere funnet lignende resultater med AI-produsert lyd. I fjor rapporterte Herrmann at eldre individer hadde en redusert evne til å skille mellom menneskeskapt tale og AI-generert tale sammenlignet med yngre personer.
Generelt, Simone Grassini, en psykolog ved Universitetet i Bergen i Norge, mener at alle typer AI-genererte medier lettere kan villede eldre seere på grunn av en bredere "samlet effekt." Både Herrmann og Grassini antyder at eldre generasjoner kanskje ikke har lært om egenskapene til AI-generert innhold og møter det sjeldnere i hverdagen, noe som gjør dem mest sårbare når innholdet vises på skjermene deres.
Reduksjon i kognitiv kapasitet og hørselstap (i tilfelle av AI-generert lyd) kan ha sin innflytelse, men Grassini bemerket også at denne effekten også skjedde hos personer mellom førti og femti. Unge mennesker har vokst opp i en tidsalder med feilinformasjon på nettet og er vant til bearbeidede bilder og videoer, la Grassini til.
Hvordan beskytte deg mot falske AI-genererte bilder

A rask utvikling av kunstig intelligens det gir absolutt mange fordeler for samfunnet, men som det fremgår av dette innholdet, må vi holde et øye med konsekvensene som denne teknologien kan forårsake oss. Selv om potensialet er stort, og dekker områder som helse og utdanning, kan de mulige ulempene ikke ignoreres. Haywood Talkove, administrerende direktør for en nettsikkerhetsorganisasjon, advarer seniorer om den økende bruken av AI i romantikksvindelordninger, forsøk på løsepenger og skattesvindel mot myndighetene.
Talcove uttalte at det er et stort antall mennesker dedikert til å utvikle denne teknologien for godt, og jobber utrettelig. På den annen side er det også en gruppe som er like dedikert til å bruke ferdighetene sine på nedsiden, ved å bruke AI for å finpusse dine krumspring og utnytte eldre mennesker og eldre. Med det i tankene, her er noen punkter for å hjelpe deg med å beskytte deg selv og også beskytte de menneskene som trenger disse retningslinjene:
- Romantisk svindel: Med fremskritt innen kunstig intelligens kan svindlere nå lage visuelle bilder som ser ekstremt ekte ut. De har også muligheten til å generere en stemme designet for å tiltrekke seg et spesifikt offer. Disse realistiske bildene og stemmene brukes til å overtale offeret til å delta i videomøter. Her er tipset å alltid bekrefte sannheten til bildet eller videoen, sammenligne det med andre medier fra personen selv eller til og med ringe direkte;
- Falsk redning: På mange sosiale medieplattformer har folk korte videoer der stemmene deres spilles inn. En bedrager kan bruke et av disse opptakene til å lage en ekstremt realistisk duplikat av personens stemme. På denne måten kan svindleren imitere stemmen til et barn, barnebarn eller et annet familiemedlem for å føre en samtale. Still spesifikke spørsmål under samtalen og prøv å bekrefte identiteten til personen i samtalen. Noen ganger er stemmen alene ikke en indikasjon på at den personen er den de sier de er;
- Tenk før du klikker: Det gamle trikset med å klikke på lenker kan også assosieres med kunstig intelligens. Det er viktig å være forsiktig når du åpner lenker, enten det er via e-post eller tekstmelding. Hvis avsenderen ikke gjenkjennes, unngå å klikke på lenken. Husk at smarttelefonene våre også er datamaskiner. Et enkelt klikk på en mistenkelig lenke kan føre til at skadevare lastes ned til enheten din.
- Stol på intuisjonen din: Kunstig intelligens kan lage meldinger som ser ut til å komme fra folk du kjenner, ved å bruke offentlig tilgjengelig informasjon. Dette øker risikoen for å falle for svindel. Vær forsiktig med uønskede e-poster og meldinger som ber om personlig informasjon, selv om de virker legitime. Stol på intuisjonen din når du legger merke til røde flagg, for eksempel stavefeil, merkelig eller repeterende formatering. Hvis du er i tvil, kontakt selskapet eller personen direkte via telefon, ikke e-post, for å bekrefte ektheten;
- Hold programvaren oppdatert: Kunstig intelligens kan også identifisere sårbare enheter ved å sjekke programvareversjoner eller sikkerhetsfeil. For å holde enhetene dine trygge, hold alltid enheten (smarttelefon, bærbar PC, nettbrett osv.), programvare og applikasjoner oppdatert. Dette bidrar til å beskytte mot potensielle skadevareutnyttelser.
Hvordan beskytte eldre
Til tross for utfordringene med å identifisere falskt innhold (forfalskning nyheter) ettersom de sprer seg på nettet, har eldre ofte et annet syn på det større bildet. Faktisk er det mer sannsynlig at de gjenkjenner farene ved AI-generert innhold enn yngre generasjoner.
En undersøkelse av MITER-Harris meningsmåling, som involverer mer enn 2.000 personer, indikerte at en større del av Baby Boomers (født i 1946 og 1964) og Generasjon X (1965 til 1980) er opptatt av konsekvensene av deepfakes — effekter og redigeringer i bilder og videoer som er ganske vanskelig å skjelne — sammenlignet med deltakere i Generasjon Z (1997 til 2012) og Y generasjon (også kjent som Millennials, født mellom 1981 og 1996).
Eldre aldersgrupper hadde en høyere andel deltakere som gikk inn for regulering av AI-teknologi og større investeringer fra teknologiindustrien for å beskytte publikum. Forskningen avslørte også at eldre voksne kan skille mer nøyaktig mellom falske overskrifter og historier sammenlignet med yngre voksne, eller i det minste identifisere dem med lignende hastigheter.
Eldre voksne har også en tendens til det konsumere flere nyheter enn sine yngre jevnaldrende og kan ha akkumulert omfattende kunnskap om spesifikke emner gjennom livet, noe som gjør det vanskeligere å lure dem.
Os kuppmakere har brukt stadig mer sofistikerte generative AI-verktøy for å målrette mot eldre voksne. De kan bruke lyd og bilder deepfake hentet fra sosiale nettverk for å simulere et familiemedlem som ringer og ber om penger, eller til og med forfalsker utseendet til en slektning i en videosamtale.
Falske videoer, lyd og bilder kan også påvirke velgere eldre før valget. Dette kan være enda mer skadelig, siden folk i femtiårene eller eldre har en tendens til å utgjøre flertallet av velgerne i land som Brasil selv.
For å hjelpe seniorer i livet, fremhevet Hickerson viktigheten av å spre informasjon om generativ AI og risikoen det kan utgjøre på nettet. En måte å begynne å utdanne dem på er fremheve kjennetegn ved disse bildene som er klart falske, som for jevne teksturer, merkelige tenner eller mønstre som gjentas sømløst på tvers av bildebakgrunner.
Hun legger til at vi også kan avklare hva vi vet og ikke vet om sosiale mediers algoritmer og hvordan de påvirker den eldre befolkningen. Det er også en del av å huske at feilinformasjon til og med kan komme fra venner og familie.
Med fremme av deepfakes og andre AI-kreasjoner hver dag, kan selv de mest erfarne teknologiekspertene finne det vanskelig å identifisere dem. Selv om du anser deg selv som ganske kunnskapsrik, kan disse modellene være foruroligende. Nettsiden Denne personen eksisterer ikke, for eksempel, tilbyr utrolig overbevisende bilder av AI-skapte falske ansikter, ofte uten åpenbare tegn på deres beregningsmessige opprinnelse.
Selv om forskere og teknologiselskaper har utviklet algoritmer for automatisk å oppdage falske medier, er de ikke ufeilbarlige, og stadig utviklende generative AI-modeller har en tendens til å overgå dem. En av de mest kjente AI-ene innen bildegenerering, den midt på reisen, møtte utfordringer i en lang periode for å skape realistiske hender, før de endelig oppnådde suksess med en ny versjon utgitt for noen måneder siden. For å møte den økende bølgen av umerkelig falskt innhold og dets sosiale konsekvenser, understreket Hickerson viktigheten av regulering og bedriftsansvar.
Finn ut mer om denne og andre nyheter på Showmetech TRIO, din ukentlige teknologinyhetstrio:
Og du, hva synes du om denne bølgen av AI-generert feilinformasjon? Har du noen gang vært i en lignende situasjon? Fortell oss Kommentar!
Veja também:
Turister vil nå kunne reise med ballong ut i verdensrommet i 2025.
Med informasjon fra: The Daily Beast, NORC, NCBI e Amerikansk legion
Anmeldt av Glaucon Vital den 26.
Oppdag mer om Showmetech
Registrer deg for å motta siste nytt på e-post.