Altman sa ospravedlnil: OpenAI nevarovala políciu pred tragédiou v Kanade
Altman sa ospravedlnil: OpenAI nevarovala políciu pred tragédiou v Kanade
Spoločnosť OpenAI čelí ostrej kritike po tom, čo jej systémy na detekciu zneužívania identifikovali podozrivý účet, no napriek tomu neinformovali orgány činné v trestnom konaní. Výsledkom bola streľba v kanadskom Tumbler Ridge, ktorá si vyžiadala osem obetí.
Generálny riaditeľ OpenAI Sam Altman v piatok zverejnil otvorený list, v ktorom vyjadruje „najhlbšiu sústrasť“ celej postihnutej komunite a priznáva zlyhanie spoločnosti pri včasnom upozornení polície.
Čo sa stalo?
Podľa vyjadrenia OpenAI jej bezpečnostné mechanizmy odhalili podozrivú aktivitu na účte, ktorý neskôr súvisel so strelcom. Spoločnosť však v tom čase usúdila, že aktivita nedosahuje „hranicu pre právne oznámenie“ a informácie nepostúpila ďalej. Toto rozhodnutie malo fatálne následky.
„Je nám nesmierne ľúto, že sme nekonali rýchlejšie. Táto tragédia nám ukazuje, že musíme zlepšiť naše postupy pri posudzovaní rizík,“ napísal Altman.
Príklad z praxe: Prečo je včasné varovanie kľúčové
Predstavte si situáciu, keď AI systém deteguje radikalizujúci sa obsah – napríklad príspevky oslavujúce násilie alebo plánovanie útoku. Ak firma vyhodnotí takéto správanie ako „nedostatočne závažné“ a neupovedomí políciu, môže dôjsť k nezvratnej tragédii. Práve to sa stalo v prípade Tumbler Ridge, kde OpenAI podľa vlastných slov podcenila varovné signály.
Reakcie a dôsledky
Incident vyvolal diskusiu o zodpovednosti technologických firiem za monitorovanie svojich platforiem. Odborníci na etiku AI upozorňujú, že súčasné systémy nie sú dostatočne nastavené na spoluprácu s políciou.
OpenAI prisľúbila revíziu svojich interných smerníc a posilnenie väzieb s orgánmi činnými v trestnom konaní. Altmanova ospravedlnenie však mnohých neuspokojilo – pozostalí obetí žiadajú konkrétne kroky a transparentnosť.
Čo bude ďalej?
Kanadská polícia vyšetruje, či OpenAI mohla zabrániť útoku. V hre je aj právna zodpovednosť spoločnosti, keďže zlyhanie pri nahlasovaní podozrivej aktivity môže mať vážne právne dôsledky. Očakáva sa, že prípad ovplyvní budúcu reguláciu umelej inteligencie v Severnej Amerike.
Pôvodná správa: OpenAI, Reuters






