O Google torna mais fácil remover deepfakes explícitos gerados por IA da pesquisa

[ad_1]

Para lidar com o fluxo de imagens “deepfake” explícitas, o Google tornará mais fácil para as pessoas removerem nus gerados por IA da Pesquisa, disse a empresa em um comunicado. postagem no blog na quarta-feira.

Imagens e vídeos deepfake usam tecnologia de IA para impor o rosto de uma pessoa no corpo de outra. Às vezes, isso pode ser engraçado, como impor o rosto e a voz de Ron Swanson do programa Parks and Recreation na quarta-feira Addams da Família Addams. Outras vezes, pode ser problemático, como quando é usado para retratar falsamente o presidente ucraniano Volodymyr Zelenskyy dizendo às suas tropas para se renderem às forças russas.

Quando a tecnologia chegou à Internet, há alguns anos, as pessoas rapidamente começaram a usá-la para criar imagens sexualmente explícitas de celebridades. O acesso mais fácil à tecnologia Deepfake levou a imagens falsas explícitas baseadas em pessoas comuns, não apenas em figuras públicas. Essas alterações têm como objetivo ajudar a remover essas imagens.

Agora, quando alguém solicita a remoção de deepfakes não consensuais explícitos da Pesquisa, o Google afirma que seus sistemas terão como objetivo filtrar todas as outras pesquisas explícitas sobre eles na Pesquisa. E, quando o sistema receber um ping para remover uma imagem explícita da Pesquisa, o Google tentará remover qualquer duplicata dessa imagem dos resultados da Pesquisa. Deve-se observar que remover um deepfake explícito gerado por IA da Pesquisa não significa que ele foi totalmente removido da Internet.

O Google se recusou a responder a um pedido de comentários adicionais.

À medida que a tecnologia de IA continua a tornar-se mais democratizada, atraindo a atenção do público com o lançamento do ChatGPT no final de 2022, também surgiram problemas. Houve um aumento na desinformação e no crime cibernético. Os sistemas de IA também requerem energia significativa para funcionar, o que é ruim para o meio ambiente. Mas, do lado visual, tem havido um aumento de nus falsos gerados. No passado, essas imagens falsas exigiam tempo e habilidades de Photoshop para serem criadas, mas agora, em segundos, é fácil criar imagens explícitas, tanto baseadas em personagens fictícios quanto em pessoas reais. Já houve casos de pessoas gerando material de abuso sexual infantil com IA ou usando a tecnologia para crie nus deepfake de seus colegas de classe.

Mesmo quando Wall Street continua a recompensar empresas de IA com investimentos maciços (alguns dos quais agora estão temperando), governos em todo o mundo estão lutando para regular a tecnologia transformadora à medida que continua a evoluir rapidamente.

O Google também afirma que está melhorando seu sistema de classificação para proteção contra conteúdo prejudicial. O conteúdo falso explícito será reduzido na Pesquisa. Se você pesquisar o nome de uma pessoa, o Google aumentará o conteúdo não explícito de alta qualidade, como artigos de notícias, quando disponível. O Google afirma que esta atualização reduzirá a exposição a resultados explícitos em 70%. A empresa reconheceu o desafio de filtrar nus legítimos, como a cena de um ator em um filme, versus deepfakes ilegítimos desse mesmo ator. O Google diz que fará isso verificando se um site tem muitos pedidos de remoção de imagens explícitas falsas. Nesse caso, esse site será considerado de baixa qualidade.

Se você deseja remover um deepfake explícito gerado por IA da Pesquisa, siga este link.

Observe que o Google afirma que uma solicitação deve atender a três requisitos para ser aprovada para remoção:

  1. A pessoa deve ser identificável nas imagens.
  2. As imagens em questão devem ser falsas e retratar falsamente a pessoa nua ou em situação sexualmente explícita.
  3. As imagens devem ser distribuídas sem o consentimento da pessoa.

O Google afirma que analisará todas as solicitações, potencialmente solicitando mais informações, se necessário, e responderá a cada solicitação notificando a pessoa sobre as medidas tomadas ou explicando por que a solicitação não atende aos requisitos da empresa.



[ad_2]

Source link