Um grupo de pesquisadores da Universidade de Chicago está desenvolvendo uma ferramenta para "envenenar" plataformas de inteligência artificial (IA). A ideia é modificar imagens para que elas, caso sejam usadas em modelos de linguagem, prejudiquem o treinamento de uma IA.
A ferramenta se chama Nightshade e foi desenvolvida para "quebrar" IAs generativas alimentadas por imagens que deveriam ser protegidas por direitos autorais. Em vários casos, ilustrações foram incluídas no treinamento de uma plataforma sem autorização.
Fonte: TecMundo