OpenAI kunngjør Bug Bounty Program – TechCult
Miscellanea / / April 12, 2023
Bare forrige måned hadde ChatGPT en stor feil som ga noen brukere muligheten til det se andres samtalehistorier. En feil som dette kan være veldig bekymrende og dårlig for omdømmet til et selskap som OpenAI som håndterer mengder av sensitive data. Dermed kunngjør OpenAI et Bug Bounty Program som vil belønne folk som finner feil i ChatGPT med heftige belønninger.
Ved å invitere hjelp utenfra tar OpenAI en proaktiv tilnærming for å finne og adressere eventuelle sårbarheter eller feil som kan dukke opp i deres AI-systemer. De har inngått samarbeid med Bugcrowd, en topp bug-bounty-plattform, for å administrere innsendings- og belønningsprosessen. I henhold til Feilkunngjøringsside OpenAI vil gi belønninger i området $200 – $6500 per sårbarhet, og opptil $20 000 maksimal belønning.
OpenAI mener at åpenhet og samarbeid er nøkkelen til suksess i å skape sikre AI-systemer. De ønsker å jobbe sammen med sikkerhetsforskningsmiljøet for å sikre at teknologien deres er trygg for alle. Ved å delta i bug bounty-programmet kan enkeltpersoner spille en avgjørende rolle i å holde OpenAIs systemer og brukere sikre.
Selskapets Bug Bounty-program er i samarbeid med Bugcrowd. Nettsiden deres har detaljerte retningslinjer og regler for deltakelse. I deres Eksempler på sikkerhetsproblemer som er utenfor omfanget, det sier:
- Jailbreaks/sikkerhetsomgåelser (f.eks. DAN og relaterte meldinger)
- Få modellen til å si dårlige ting til deg
- Få modellen til å fortelle deg hvordan du gjør dårlige ting
- Få modellen til å skrive ondsinnet kode for deg
Mens OpenAI løste det betydelige problemet i ChatGPT som lot brukere se andres samtalehistorikk, kan disse typene hack vise hvordan sårbare AI-systemer kan være, sier OpenAI at de ikke er egnet for bug bounty-programmet fordi de ikke er diskrete feil som lett kan fikset. I stedet krever de betydelig forskning og en bredere tilnærming.
Så hvis du er en sikkerhetsforsker eller etisk hacker med øye for detaljer, kan du begynne å søke etter feil! Din ekspertise og årvåkenhet kan ha en direkte innvirkning på å gjøre OpenAIs teknologi tryggere for alle. Besøk OpenAIs Bugcrowd-side og send inn funnene dine. Men husk, jailbreaking er ikke tillatt!
Kilde: OpenAI-feilmeldingsside
Alex Craig
Alex er drevet av en lidenskap for teknologi og spillinnhold. Enten det er gjennom å spille de nyeste videospillene, følge med på de siste teknologinyhetene eller engasjere med andre likesinnede på nettet, er Alex sin kjærlighet til teknologi og spill tydelig i alt han gjør.
Alex er drevet av en lidenskap for teknologi og spillinnhold. Enten det er gjennom å spille de nyeste videospillene, følge med på de siste teknologinyhetene eller engasjere med andre likesinnede på nettet, er Alex sin kjærlighet til teknologi og spill tydelig i alt han gjør.