Em teste, inteligência artificial GPT-3 escreve textos falsos e torna-se o mais lido de site hacker

qual o impacto da inteligencia artificial no atendimento da empresa
Um estudante universitário buscou saber se era possível fazer com que uma inteligência artificial se passasse por um profissional humano: segundo ele, foi fácil enganar os leitores da plataforma
Anúncio
Samsung  campanha  Connected Living para promover conectividade de produtos  do lar

O estudante universitário Liam Porr usou o software de inteligência artificial (IA) GPT-3 para criar, escrever e manter um blog dentro do site Hacker News, eventualmente ascendendo à posição de mais lido da plataforma e obtendo até mesmo assinantes. Segundo ele, o objetivo do teste era descobrir se uma IA seria capaz de se fazer passar por um ser humano na hora de publicar textos na internet. Falando ao MIT Technology Review, Porr disse que não apenas conseguiu provar sua teoria, mas que “foi tudo super fácil, o que é assustador”.

A GPT-3 (sigla em inglês para “Transformador Generativo Pré-Treinado”) é uma ferramenta de IA desenvolvida pela organização OpenAI para fins de preenchimento automático de formulário. Seu funcionamento constitui-se, a grosso modo, de prever o que o usuário pretende escrever e completar a frase, termo ou trecho para ele. O programa vinha sendo desenvolvido pela organização há três anos e foi recentemente liberado para pesquisadores técnicos, como uma espécie de teste beta privado.

A ferramenta de inteligência artificial GPT-3 consegue escrever textos longos e passar-se por humana (Imagem: Anatoly Bobe / Neurobotics e @ tsarcyanide / MIPT)
A ferramenta de inteligência artificial GPT-3 consegue escrever textos longos e passar-se por humana (Imagem: Anatoly Bobe / Neurobotics e @ tsarcyanide / MIPT)

Conforme a documentação da ferramenta, pela própria página da OpenAI: “Ao inserir qualquer trecho textual, a API vai retornar uma sugestão completa, tentando imitar o padrão [de escrita] que você estabeleceu. Você pode ‘programá-la’ ao mostrar a ela apenas alguns exemplos do que você gostaria de fazer: seu sucesso geralmente varia de acordo com a complexidade da tarefa à mão”.

O blog de Porr, que ainda está no ar, foi a forma que ele encontrou para testar as capacidades da ferramenta. Evidentemente, o resultado não é perfeito, mas considerando que muitas pessoas que escrevem na internet cometem erros bem crassos, a GPT-3 acaba se destacando por uma qualidade mediana. Confira você mesmo no trecho a seguir:

“Definição #2: ‘Pensar em demasia’ é o ato de tentar criar ideias que já foram pensadas por outra pessoa. Isso normalmente resulta em ideias que são impraticáveis, impossíveis ou até mesmo estúpidas.”

ADOLOS, “Feeling unproductive? Maybe you should stop overthinking” — Substack, 19 de Julho de 2020

Em seu teste, Porr, um estudante de Ciências da Computação na Universidade de Berkeley, Califórnia, conta que encontrou um estudante de Ph.D da instituição com acesso à ferramenta, convencendo-o a trabalharem juntos. A partir daí, ele escreveu um script automatizado que geraria sugestões de título e introdução, como um texto de blog. A GPT-3 seguiria a partir daí, criando várias amostras completas de redação para que Porr selecionasse a mais (humanamente) verossímil.

O resultado mais acessado foi o post cujo trecho foi citado acima (título traduzido: “Sentindo-se pouco produtivo? Talvez você deva parar de pensar demais”), que Porr afirma ter amealhado 26 mil visitas. Sendo justo com o seu público, o estudante reconheceu que uma única pessoa chegou a enviar uma mensagem a “Adolos”, o pseudônimo que assina o texto, perguntando se a redação havia sido gerada por uma inteligência artificial. Outros usuários, porém, levantaram a possibilidade de uso do GPT-3 nos comentários, mas a própria comunidade marcou tais manifestações com “descurtidas”.

O teste de Porr sugere, segundo ele próprio, que sistemas de inteligência artificial suficientemente avançados podem, um dia, vir a substituir produtores de conteúdo escrito: “O motivo de isso ter sido lançado em um teste beta privado é para que a comunidade possa mostrar à OpenAI estes novos formatos de uso que eles podem ou encorajar, ou tomar cuidado”, disse Porr ao MIT Technology Review, antes de reconhecer que a própria organização não deve gostar do que ele fez, considerando que ele não tinha acesso à API do GPT-3. “É possível que eles fiquem irritados comigo”.

GPT-3 não é a única inteligência artificial trabalhando com notícias

O emprego da inteligência artificial na escrita não é algo exclusivo da OpenAI, uma organização que possui suporte financeiro de pessoas grandes no mercado tecnológico, como Elon Musk. Em junho de 2020, a Microsoft comunicou a não-renovação dos contratos de cerca de 50 jornalistas que atuavam no Microsoft News, trocando-os por uma curadoria de notícias feita por inteligência artificial desenvolvida internamente.

Normalmente, a Microsoft paga pelo licenciamento de conteúdos publicados por agências de notícias, para que sejam publicadas em portais como o MSN e o feed de notícias do navegador Edge. Entretanto, os jornalistas internos é quem selecionava quais notícias entrarão nas plataformas. Desde junho, isso foi trocado por uma IA que promove a troca de títulos, a inserção de imagens mais coerentes ou criando apresentações de slides. Tudo no intuito de otimizar a abrangência dos canais da empresa dentro do conceito de SEO (sigla em inglês para “otimização para mecanismos de busca”).

A decisão encontrou certa crítica, haja vista que a diretriz editorial da Microsoft preza pela não veiculação de material violento ou inapropriado, já que muito do público alvo do MSN é constituído de jovens. Essa rigidez, argumentaram detratores e ex-funcionários, só era possível mediante a análise crítica de um humano.

Fonte: MIT Technology Review, via The Verge

1 Comentário

Clique aqui para postar um comentário