Indeks
A OpenAI, et selskap som er ansvarlig for løsninger for kunstig intelligens (AI), tilbyr opptil $20 XNUMX for å rapportere feil på ChatGPT. For å kunne varsle om sårbarheter, må brukere vise feil gjennom plattformen til bug bounty Bugcrowd, hvor kunngjøringen ble gjort.
Mens de tilbyr belønninger OpenAI advarer om at forsøk på å betjene selskapets AI-systemer for ondsinnede formål ikke vil motta noen belønning. Forstå i denne artikkelen hvordan selskapet vil gi disse prisene til de som finner feilene til AI-tjenester og reglene som er involvert i å skaffe dem.
Hvordan belønner OpenAI brukere som finner feil i ChatGPT?

Selskapet som kunngjorde forslagene til pristildelingen for å finne feil sa at de kjører dette programmet fordi det forstår at "vesentlig forskning og en bred tilnærming" er nødvendig for noen problemer. Dermed har selskapet til hensikt å belønne for oppdagede feil som kan "lette baren" og forbedre funksjonen til tjenester som ChatGPT.
"Våre belønninger varierer fra $200 for lavrisikofunn til $20 XNUMX for eksepsjonelle funn"
OpenAI
Med andre ord, med gjeldende valutakurs for den amerikanske valutaen som referanse, hvis en brasiliansk bruker skulle rapportere en feil som anses å være mer grunnleggende, kan premien hans overstige R$980, nesten R$100 tusen.
Tanken er at OpenAI med belønningsprogrammet skal kunne redusere muligheten for feil i behandlingen av brukerdata. Ved å gi større oppmerksomhet til fellesskapet som bruker løsningene deres, ønsker selskapet at folk ikke skal legge igjen eksplisitte sårbarhetsdetaljer.
Bugs og andre problemer som ikke er inkludert i dusørprogrammet

Det er flere rapporter og artikler som allerede viser det fordelaktige potensialet til ChatGPT – både for enkle oppgaver, som å planlegge turer, og for andre mer komplekse aktiviteter, for eksempel å evaluere programmeringskoder – og på den annen side rapportering av svar som kan være mer risikabelt - tjenesten kan brukes til å lage deler av desinformasjon eller til og med forseggjorte trinn for å lage skadelig programvare. Når det gjelder disse problemene, har Open AI listet opp noen retningslinjer for å definere hvem som kan motta belønninger for å rapportere feil.

Listen på Bugcrowd-siden, kalt Utenfor virkeområdet (utenfor omfanget, i fri oversettelse), indikerer at feil ved angrep, enten ved å bryte passord, ødelegge tredjepartsdata, lekke identiteter, blant andre typer lovbrudd, ikke vil motta de annonserte belønningene. Retningslinjene begrenser også ethvert forsøk på å angripe OpenAI selv, spam eller svindelforsøk. Selskapet vil likevel ikke belønne de som planlegger å be AI-tjenester om å komme med metoder for å lure folk gjennom nettsider, med falske knapper og tjenester.
Sårbarheter varslet i ChatGPT med stor ettervirkning: noen eksempler

For noen uker siden ble ChatGPT en nyhet for å vise skadelig potensial, ettersom det var i stand til å omgå verifikasjonssystemer, som f.eks. CAPTCHA. Men disse og andre feil kan være relatert til andre årsaker, det vil si at de ikke nødvendigvis skyldes dårlig administrasjon av OpenAI.
I mars, for eksempel, avslørte en hacker ved navn rezO til og med 80 "hemmelige plugins" i API-en - en forkortelse for Application Programming Interface, eller Application Programming Interface, i fri oversettelse; tjener til å skape et samspill mellom digitale tjenester, som er viktig for at disse systemene skal fungere for folk å bruke. Det viser seg at disse funksjonene faktisk ennå ikke var implementert for AI-tjenesten.
Som en løsning klarte OpenAI å rette på plugin-problemet samme dag som hendelsen ble varslet. Også i mars ba OpenAI til og med om unnskyldning for å ha blitt varslet om en annen feil i AI-hurtigsvarsystemet. Advarselen var at det skjedde en feil som førte til lekkasje av betalingsdetaljer og til og med chattehistorikk for noen brukere.
Veja também:
Google Bard: ChatGPT-konkurrent er annonsert for "snart"
Bill Gates siterer "AI Era Has Just Begun" og reflekterer over ChatGPT
Oppdag mer om Showmetech
Registrer deg for å motta siste nytt på e-post.