Os pesquisadores demonstraram que prompts maliciosos podem fazer o “jailbreak” de robôs alimentados por IA e fazer com que eles executem ações insegur...
Os pesquisadores demonstraram que prompts maliciosos podem fazer o “jailbreak” de robôs alimentados por IA e fazer com que eles executem ações insegur...