O uso de Inteligência Artificial (IA) para criar e selecionar conteúdo por meio do Chat GPT, ou outras ferramentas que simulam a linguagem humana, tem impressionado a web e feito o chatbot conquistar cada vez mais usuários.
Mas uma fala de Neil Patel, uma das principais referências em marketing digital no mundo, durante o Latam Retail Show 2023, indica que em meio a tamanha empolgação é preciso deixar claro que a IA não é perfeita e, assim como nós, pode errar.
Desinformação, conteúdos repetitivos e pouco humanizados, além de uma racionalidade excessiva são os alertas apontados pelo especialista. Veja a seguir:
1 - INFORMAÇÕES DESATUALIZADAS
Patel acredita que, de fato, entraremos em um novo patamar de comunicação, muito apoiado por tecnologias como a IA, mas não completamente guiado por elas. A ideia, segundo o especialista, é aprender como aproveitar ao máximo as possibilidades oferecidas pelas ferramentas, mas também saber como e quando duvidar delas.
Vender também significa informar o consumidor e esse conteúdo precisa ser exato. Nesse sentido, muitos julgam que a tecnologia de IA é precisa, mas não é. É importante considerar, por exemplo, o Chat GPT, que nesse momento só é capaz de fornecer informações atualizadas até 2021.
"O aprendizado da máquina trabalha constantemente para aprimorar a tecnologia, como mecanismos de pesquisa, mas isso ainda é limitado e perigoso para muitos negócios", diz.
Patel alerta que um dos diferenciais do Chat GPT é a sua alta capacidade de interagir com os usuários. Para quem tem pouco contato com o recurso, a percepção é de que a ferramenta tem capacidade de reproduzir, de forma muito fidedigna, a escrita e o estilo de linguagem humana.
E é exatamente nesse ponto que tudo pode dar errado. Essa convicção faz com que o robô pareça que está certo mesmo quando está errado. A maioria dos chatbots, quando se deparam com uma pergunta cuja resposta não conhecem, informam ao usuário desconhecer sobre o assunto.
Já o ChatGPT é capaz de formular respostas com lógica e aparente coerência, mesmo sem que aquilo seja verdade.
2 - CONTEÚDOS SIMILARES E REPETITIVOS
Para quem tem os primeiros contatos com a tecnologia de IA, o conteúdo gerado parecerá perfeito - variado, engajante e inédito.
Entretanto, o especialista aponta que, quando muito exposto às repetições, o conteúdo logo se torna seco e até batido. A impressão que se tem é estar diante de um mesmo conteúdo repetido, escrito de forma similar e genérica.
Ao examinar os detalhes, Patel fala sobre a questão de estilo, uma vez que as IAs "tendem a produzir textos com estilos diferentes dos humanos, como uma linguagem mais formal, bem como tendem a produzir conteúdo sem sentido ou sem relação lógica, nem contexto."
Além disso, as IAs geralmente "não têm a capacidade de citar fontes confiáveis e tendem a produzir textos com padrões repetitivos ou estruturas de linguagem semelhantes."
3 -CONTEÚDO ENVIESADO
Justamente pelo fato de o software ter sido treinado com diferentes conteúdos disponíveis na Internet, a ferramenta pode reproduzir textos elaborados em redes sociais, como postagens em redes sociais. Em meio a um movimento com tanto discurso de ódio, ofensas políticas e culturais é possível que alguns conteúdos reproduzam comentários indesejados, parciais, enviesados e até preconceituosos.
Patel destaca que a própria ferramenta já fez alertas sobre a capacidade do ChatGPT de produzir conteúdo tendencioso. E esse não é um problema exclusivo do chatbot, e acontece com muitas outras IAs treinadas por aprendizado de máquina.
Compra | Venda | |
---|---|---|
Dólar Americano/Real Brasileiro | 5.973 | 5.9737 |
Euro/Real Brasileiro | 6.3091 | 6.3251 |
Atualizado em: 29/11/2024 20:59 |
08/2024 | 09/2024 | 10/2024 | |
---|---|---|---|
IGP-DI | 0,12% | 1,03% | 1,54% |
IGP-M | 0,29% | 0,62% | 1,52% |
INCC-DI | 0,70% | 0,58% | 0,68% |
INPC (IBGE) | -0,14% | 0,48% | 0,61% |
IPC (FIPE) | 0,18% | 0,18% | 0,80% |
IPC (FGV) | -0,16% | 0,63% | 0,30% |
IPCA (IBGE) | -0,02% | 0,44% | 0,56% |
IPCA-E (IBGE) | 0,19% | 0,13% | 0,54% |
IVAR (FGV) | 1,93% | 0,33% | -0,89% |