O avanço da IA e seus riscos
O avanço acelerado da inteligência artificial (IA) tem levado ao surgimento de muitas aplicações inovadoras. Mais conforto, novas possibilidades de negócios, capacidades aumentadas são algumas das promessas da IA. No entanto, ferramentas com grandes poderes podem ter aplicações altamente nocivas. E a última tendência na manipulação de imagens com inteligência artificial está causando preocupações entre pais, educadores e órgãos de segurança em todo o mundo.

Recentemente, notícias sobre as ações legais do grupo Meta tentando coibir a circulação de propagandas de aplicativos Nudify no Facebook fizeram soar o alarme sobre a dimensão do problema e a dificuldade em combatê-lo.
Aplicativos Nudify

Imagens de IA generativa já são muito realistas.
Aplicativos Nudify usam algoritmos avançados de IA generativa para gerar imagens nudes falsas a partir de imagens de pessoas vestidas.
Com o avanço dos modelos de IA, técnicas de manipulação de imagens como as usadas em aplicativos Nudify se tornaram excelentes. Os nudes gerados são altamente realistas. Evidentemente, as implicações dessa tecnologia são extremamente graves e criminosas.
Crianças e adolescentes são particularmente vulneráveis a sofrerem consequências muito danosas ao terem nudes realistas seus circulando na rede. Em consequência, esses aplicativos já se tornaram uma questão séria em escolas e comunidades, provocando preocupações éticas, legais e de privacidade.
Neste post, exploraremos o mundo dos aplicativos Nudify, analisando como eles funcionam, seu impacto sobre as vítimas, os responsáveis e a sociedade na totalidade. Também apresentaremos algumas ferramentas que você pode usar para proteger suas imagens contra esse tipo de manipulação.
Como funcionam os Aplicativos Nudify?
A maioria dos aplicativos Nudify usa algoritmos do tipo redes adversárias generativas (GANs). Essa é uma técnica muito popular em IA generativa. Ela consiste em duas redes neurais. Uma atua como um gerador e a outra como um discriminador. O gerador cria imagens falsas a partir de fotos reais. O discriminador tenta identificar quais imagens são reais e quais foram geradas pela IA (pelo gerador). Ambas as redes são treinadas juntas em grandes conjuntos de dados.

Imagens de números escritos a mão criados com GAN (fonte).
Para os aplicativos Nudify, os dados de treinamento consistem em imagens de pessoas nuas e vestidas. Os GANs usados nesses apps são treinados em extensos conjuntos de dados de imagens explícitas. A partir dessas imagens, eles aprendem a criar novas imagens que capturam a anatomia humana, texturas da pele e o mapeamento entre áreas vestidas e despidas. O treinamento iterativo das redes melhora gradativamente a capacidade do gerador para criar falsificações realistas que podem enganar o discriminador.

Rápida evolução na qualidade das imagens criadas com GANs (fonte).
Impacto sobre as vítimas
As vítimas de abuso com aplicativos Nudify passam frequentemente por traumas emocionais e psicológicos intensos, incluindo sentimentos de vergonha, raiva e traição. As consequências sociais podem ser graves, levando a bullying, isolamento social e danos à reputação. Os efeitos a longo prazo podem incluir ansiedade e estresse contínuos.
Informe seus amigos sobre Aplicativos Nudify
Pais e cuidadores desempenham um papel fundamental na educação das crianças sobre os perigos dos aplicativos Nudify. Mas os riscos não se restringem aos jovens e crianças. Pessoas de qualquer idade e grupo social podem sofrer danos irreparáveis de reputação através do uso destes aplicativos. Se a sua criança foi afetada por um aplicativo Nudify, aja imediatamente através das seguintes ações:
- Informe às autoridades escolares.
- Avise a polícia.
- Utilize plataformas de denúncia.
- Procure ajuda profissional.
Use a IA para se proteger dos aplicativos Nudify
A melhor prevenção que existe atualmente contra os aplicativos Nudify se concentra em combater suas formas de disseminação. Além disso, manter-se informado sobre ameaças digitais emergentes é essencial. Mas, evidentemente, medidas mais práticas são fundamentais também. Será que existe alguma coisa que você pode ativamente realizar para se proteger?
Sim, existem algumas estratégias que você pode usar para proteger as suas imagens e elas envolvem a IA. Para combater a manipulação de imagens, alguns grupos de universidades renomadas como MIT desenvolveram algoritmos de IA que inserem manipulações imperceptíveis aos olhos humanos em imagens. Embora essas manipulações não sejam visíveis para nós, elas confundem algoritmos de IA generativa como os usados em aplicativos Nudify. A consequência dessa confusão é que os aplicativos geram imagens com cara de fake. Veja a seguir a lista de alguns desses algoritmos.
MIT PhotoGuard
O algoritmo PhotoGuard do MIT foi especificamente projetado para proteger as imagens da manipulação de IA. Ele funciona introduzindo “perturbações” – alterações minúsculas e invisíveis nos valores dos píxeis das imagens. As perturbações são invisíveis para o olho humano, mas não para os modelos de IA.

PhotoGuard em ação: uma imagem original (esquerda) pode ser facilmente manipulada com IA generativa (centro), mas, após ter PhotoGuard aplicado, a manipulação falha (direita) (fonte).
O PhotoGuard usa dois métodos diferentes para gerar suas perturbações. O mais direto, chamado de codificador, tem como alvo a representação latente da imagem em um modelo de IA. Ele inclui perturbações que fazem a imagem ser percebida como uma entidade aleatória para a IA. Consequentemente, fica impossível para a IA manipular a imagem. Outro método usa difusão. Ele é mais sofisticado e opera otimizando as perturbações para fazer com que a imagem final se assemelhe ao alvo original ao máximo.
No entanto, os pesquisadores reconhecem que o PhotoGuard não é uma solução completa. Depois que uma imagem está online, agentes mal-intencionados podem tentar fazer engenharia reversa das medidas de proteção por meio de métodos como aplicação de ruído, corte ou rotação da imagem.
Para quem se interessou, o PhotoGuard está disponível no GitHub.
Glaze e Nightshade
Glaze e Nightshade são dois algoritmos para proteger imagens desenvolvidos pela Universidade de Chicago.
Glaze foi projetado especificamente para proteger artistas humanos, interrompendo o mimetismo de estilo. Mas ele pode ser usado para outras finalidades, como proteger as suas fotos. O Glaze funciona de forma parecida ao PhotoGuard. Ele cria um conjunto de alterações mínimas numa imagem, de modo que ela pareça inalterada aos olhos humanos, mas seja percebida pelos modelos de IA como uma imagem dramaticamente diferente. Isso impede que os modelos gerem imagens realistas com a intenção desejada, como criar nudes.
Se interessou? As instruções para instalar o software com o Glaze podem ser encontradas na sua página oficial.

Glaze insere perturbações em imagens imperceptíveis aos olhos humano.
O Nightshade funciona semelhantemente ao Glaze. No entanto, ao invés de ser uma ferramenta de defesa contra o mimetismo de estilo, ele foi projetado como uma ferramenta ofensiva. O Nightshade distorce as representações de recursos em modelos de imagem de IA generativa. Assim como o Glaze e o PhotoGuard, o Nightshade é aplicado como uma otimização pouco perceptível ao olho humano, mas perceptível para a IA. Enquanto os olhos humanos veem uma imagem que permanece praticamente inalterada em relação à original, o modelo de IA vê uma composição dramaticamente diferente na imagem. Na prática, o Nightshade realiza o envenenando dos dados para modelos que raspam imagens da internet sem consentimento. Para fazer download do software com Nightshade, clique aqui.
Sanative AI
Sanative AI é uma plataforma que oferece uma grande gama de soluções para proteger imagens. Entre elas está uma marca d’água anti-IA. Ela consiste em ruídos aplicados às imagens para protegê-las do processamento e manipulação por IA.

Sanative AI protege a manipulação de imagem com marca d’água anti-IA.
O Futuro dos Aplicativos Nudify
Enquanto as leis relacionadas aos aplicativos Nudify e tecnologia de deepfake estão em evolução, precisamos estar atentos. Há uma tendência crescente de regulamentações mais rigorosas e consequências mais severas para aqueles que criam ou compartilham imagens íntimas não consensuais usando essas tecnologias (por exemplo, aqui, aqui e aqui). Mas a criação de leis mais severas pode ser pouco para os estragos causados pelos aplicativos Nudify. Portanto, se informe sempre sobre as novas tecnologias e use as ferramentas disponíveis para se proteger e proteger a sua família.