Inteligência artificial da Microsoft é “corrompida” por usuários no Twitter


A intenção era boa: testar como uma inteligência artificial conseguiria interagir com humanos na internet e aprender por meio desse contato. No entanto, um experimento feito pela Microsoft no Twitter, semana passada, acabou tendo um resultado desastroso e que fala muito sobre as limitações dessa tecnologia.

Tay se despede dos internautas no último tuíte: Microsoft se viu obrigada a desativar perfil após mensagens racistas e antissemitas | Reprodução/Twitter

Tay se despede dos internautas no último tuíte: Microsoft se viu obrigada a desativar perfil após mensagens racistas e antissemitas – Reprodução/Twitter

A intenção era boa: testar como uma inteligência artificial conseguiria interagir com humanos na internet e aprender por meio desse contato.
No entanto, um experimento feito pela Microsoft no Twitter, semana passada, acabou tendo um resultado desastroso e que fala muito sobre as limitações dessa tecnologia.[ad name=”Retangulo – Anuncios – Direita”]

O sistema inteligente, chamado de Tay, foi lançado pela companhia no microblog na última quarta-feira (23), sendo apresentado como uma jovem norte-americana de 19 anos.

Segundo a Microsoft, o objetivo do experimento era pesquisar como a inteligência artificial compreenderia as mensagens endereçadas a ela e de que modo responderia a essas interações – cientistas da companhia programaram o perfil para responder de forma “descolada”, justamente para se aproximar do linguajar utilizada por humanos na faixa etária entre 18 e 24 anos.

Desde o início, os demais usuários do Twitter sabiam que se tratava de um sistema de computador.

No começo, Tay publicou uma série de tuítes inofensivos. Mas, no dia seguinte à sua ativação no Twitter, conforme os demais internautas direcionavam mensagens a ela, o sistema passou a incorporar e retuítar algumas das publicações – várias, nada amistosas.


Você leu?: Como é o WT:Social, a rede social ‘anti-Facebook’


O sistema, por exemplo, aprendeu rapidamente uma série de expressões antisemitas e de ódio enviadas por outros usuários.

Começou a disparar várias mensagens, dizendo que Hitler estava correto, que o atentado terrorista de 11 de setembro foi um ato do próprio governo norte-americano e inclusive compartilhou mensagens apoiando a política de Donald Trump contra os imigrantes.

Em uma ocasião, tuitou que “feminismo é câncer”, em resposta a outro usuário do microblog que tinha publicado a mesma mensagem.

“Profundamente arrependida”

Com a repercussão do caso entre os internautas e na imprensa, a Microsoft se viu encurralada e desativou o perfil de Tay no Twitter ainda na quinta-feira (24). Em nota, a companhia se disse “profundamente arrependida” pelas mensagens racistas e sexistas publicadas pela inteligência artificial.

veja também

“Estamos profundamente arrependidos sobre os tuítes ofensivos de Tay, que não representam quem nós somos ou o que defendemos, nem como nós projetamos a Tay”, disse Peter Lee, vice-presidente de pesquisa da Microsoft.

Após os problemas durante o experimento, a Microsoft disse que vai reativar o perfil de Tay apenas se seus engenheiros puderem encontrar uma maneira de impedir que os internautas influenciem o sistema de forma negativa. O desafio será justamente programar o perfil para distinguir entre o que é razoável e o que vai contra os princípios e valores da companhia – e da sociedade como um todo.
Fonte:Gazeta do Povo

Postado na categoria: Internet - Palavras chave: , , , , , , ,

Leia também:

Como é o WT:Social, a rede social ‘anti-Facebook’
Como é o WT:Social, a rede social ‘anti-Facebook’

O fundador da Wikipedia, Jimmy Wales, criou uma nova rede social chamada WT: Social, que ele deseja transformar no "anti-Facebook".

December 6, 2019, 12:58 pm