ChatGPT nudio recepte za bombe i savete za hakovanje tokom bezbednosnih testova: "AI alati su već sada oružje"
Komentara 0
Veštačka inteligencija OpenAI-ja, model GPT-4.1, tokom bezbednosnih testova sprovedenih ovog leta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat, uključujući ranjive tačke na konkretnim lokacijama, recepte za eksplozive i savete o prikrivanju tragova, saopštila je kompanija "Anthropic".
Sekcija komentara na ovom tekstu je sada zaključana. Sekcije komentara na svim tekstovima se automatski zaključavaju posle 48 sati od poslednjeg osvežavanja teksta.