Muitos tem se perguntado: Afinal, o que é ChatGPT?

No dia 30 de novembro de 2022 o serviço Beta ChatGPT, da OpenAI entrou no ar. A expectativa em relação ao software é de “não precisar” de pessoas para escrever textos de marketing, anúncios, ensaios, relatórios ou praticamente qualquer outra coisa além dos relatórios científicos mais especializados.

O ChatGPT tem surpreendio as pessoas com suas conversas semelhantes como a de pessoas. Porém, apesar da aparente facilidade, existem muitos riscos por trás dessa inteligência artificial, neste artigo vamos explorar melhor os riscos do ChatGPT.

Neste artigo você verá:

O que é ChatGPT?

O ChatGPT é um robô virtual gratuito que interage com seres humanos de forma fácil e rápida. Enquanto o bot ainda está em fase de teste, os usuários podem se inscrever e testá-lo de forma gratuita.

O ChatGPT usa a tecnologia de linguagem GPT-3.5. Um grande modelo de inteligência artificial elaborado pela empresa OpenAI que foi treinado com uma enorme quantidade de dados de texto de várias fontes.

O bot funciona como uma espécie de diálogo. Dessa forma, permite aos usuários fornecer instruções simples ou complexas que o ChatGPT é treinado para fornecer em uma resposta detalhada.

Segundo a OpenAI, o formato de diálogo permite que o ChatGPT responda a perguntas de acompanhamento, admita seus erros, conteste premissas incorretas e rejeite solicitações inadequadas.

Apesar de toda a empolgação, é importante esclarecer que a inteligência artificial da OpenAI não é perfeita e pode, inclusive, oferecer alguns perigos. Prova disso é que o bot já foi utilizado anteriormente por hackers para realizar golpes virtuais.

Outra possibilidade é que pessoas mal-intencionadas usem o chatbot para criar campanhas de phishing. Veja os riscos do ChatGPT no tópico “Riscos do ChatGPT”.

Origem do ChatGPT

O ChatGPT é o mais recente esforço da OpenAI Foundation – uma empresa de pesquisa apoiada pela Microsoft, o cofundador do LinkedIn Reid Hoffman e a empresa de capital de risco Khosla Ventures.

O objetivo é de criar sistemas de linguagem natural que podem não apenas acessar informações, mas realmente agregar, sintetizar e escrevê-las como uma pessoa faria. Ele usa o banco de dados e o mecanismo Generative Pretrained Transformer 3 (GPT-3) da OpenAI, que contém milhões de artigos que o mecanismo analisou para que possa “entender” as relações entre conceitos e suas expressões, bem como os significados desses conceitos, em condições naturais – linguagem de texto.

Segundo depoimento da OpenAI, o GPT-3 pode processar modelos de linguagem natural com 175 bilhões de parâmetros.

O ChatGPT não é o primeiro chatbot de inteligência artificial criado. Empresas como a Microsoft se interessaram pelo mundo dos chatbots, mas não obtiveram muito sucesso.

O bot da Microsoft, Tay, foi lançado em 2016 e, de acordo com o The Verge, os usuários do Twitter ensinaram ao bot retórica misógina e racista em menos de 24 horas – levando ao seu fim.

No mesmo ano, a Meta lançou o BlenderBot 3, no entanto, assim como Tay, o bot foi criticado por espalhar informações racistas, anti-semitas e falsas, como alegar que Donald Trump venceu a eleição presidencial de 2020, de acordo com o Mashable.

Para tentar mitigar esses riscos, a OpenAI empregou a Moderation API – um sistema de moderação baseado em inteligência artificial que foi treinado para ajudar os desenvolvedores a determinar se o idioma vai contra a política de conteúdo da OpenAI – que bloqueia a passagem de informações inseguras ou ilegais. Entretanto, a OpenAI admite que existem ainda falha em sua moderação e não é 100% preciso.

Limitações

Segundo a própria OpenAI, o software possui algumas limitações atualmente, como demonstramos abaixo:

Riscos gerais do ChatGPT

Preliminarmente, cabe destacar que o GPT-3 pode ter os mesmos tipos de pontos fracos predominantes na escrita humana, mas com menos filtros e recursos próprios, como censura: racismo, sexismo, outros preconceitos ofensivos, bem como mentiras, motivos ocultos e outras “fake news”.

 Ou seja, pode gerar um “conteúdo tóxico”, sob o ponto de vista da equipe da OpenAI. Em 2019, a empresa desativou o acesso público ao sistema predecessor GPT-2 para evitar o uso malicioso.

Além disso, especialistas em cibersegurança descobriram por meio de testes que ferramentas como o ChatGPT têm potencial de ajudar no desenvolvimento de malware e aprimorar os ataques de engenharia social.

De acordo com essa análise, elas podem diminuir significativamente a barreira de entrada dos cibercriminosos na construção de ataques, fornecendo recursos como textos de phishing ou peças de códigos maliciosos.

Vejamos abaixo os principais riscos do ChatGPT:

Utilização do ChatGPT para criar códigos maliciosos – riscos de cibersegurança

O ChatGPT pode ser usado para criar códigos maliciosos a partir de simples comandos, permitindo que hackers iniciantes ou e até mesmo pessoas comuns, sem conhecimento de programação, criem armadilhas virtuais para atacar dispositivos de empresas e usuários.

Em dezembro de 2022, pesquisadores da OpenAI identificaram publicações de hackers em fóruns clandestinos na dark web revelando que já usavam a ferramenta para praticar atividades fraudulentas e roubar dados pessoais. De acordo com o site Bleeping Computer, ao receber um comando para criar um malware, o ChatGPT geralmente entrega o que foi solicitado. Somente em alguns casos ele alega que houve violação da política de conteúdo.

Ataques de phishing

Esses ataques se tornariam mais sofisticados com e-mails mais convincentes. Assim, surgem sérias preocupações se o bot for usado para automatizar ataques de phishing, desde a geração de e-mails até a coleta de informações confidenciais. Isso pode resultar em perdas financeiras e caos em relação a quem culpar.

Disseminação de desinformação e fake news

A própria OpenAI admite que nem todas as informações encontradas no ChatGPT estão corretas, já que a ferramenta é alimentada com diferentes conteúdos da Internet.

O bot não mostra a fonte de suas respostas, isso dificulta a checagem do conteúdo. Além disso, o bot pode ajudar a disseminar desinformação, já que ChatGPT é alimentado com conteúdos publicados somente até o ano de 2021. Ou seja, para responder às perguntas dos usuários, o software trabalha apenas com notícias, artigos e tuítes desatualizados, que foram disponibilizadas na web há mais de um ano.

Problemas de plágio de dados

Outro risco proporcionado pelo bot é aumentar a incidência de plágios dos dados, já que a ferramenta pode ser usada para escrever trabalhos escolares e acadêmicos. Nessa fase, escritores a acadêmicos estão preocupados com o conteúdo deste novo modelo.

Com sistemas como o ChatGPT, alunos podem gerar conteúdo e descrevê-lo como seu próprio trabalho. Não só tem problema de plágio, mas também questões éticas.

De acordo com reportagem do jornal norte-americano The New York Times, o ChatGPT tem sido utilizado por alunos de escolas de Nova York e Seattle, tanto em salas do ensino fundamental quanto do ensino médio, para resolver tarefas e desenvolver trabalhos. Para evitar o mau uso da tecnologia, algumas escolas, inclusive, já proibiram o robô no Wi-Fi da instituição.

Riscos do ChatGPT para empresas

Além dos riscos gerais associados ao uso de modelos de linguagem como o ChatGPT, há alguns riscos específicos que podem afetar as empresas, incluindo:

Confidencialidade

Se uma empresa usa o ChatGPT para processar informações confidenciais, como dados de clientes ou informações financeiras, há um risco de vazamento dessas informações. É importante adotar medidas de segurança adequadas para proteger essas informações sensíveis.

Tomada de decisões equivocadas

Modelos de linguagem como o ChatGPT são baseados em probabilidades, o que pode levar a tomada de decisões equivocadas por parte da empresa. É importante verificar e avaliar as informações fornecidas pelo ChatGPT antes de tomar decisões importantes.

Responsabilidade legal

Se a empresa usa o ChatGPT para interagir com clientes ou outros terceiros, ela pode ser responsabilizada por quaisquer respostas inapropriadas ou incorretas fornecidas pelo modelo. É importante estabelecer políticas claras para o uso do ChatGPT e monitorar suas interações com terceiros para minimizar esse risco.

Impessoalidade e perda de personalização

O uso excessivo de modelos de linguagem como o ChatGPT pode levar a uma perda de interação humana e personalização na comunicação da empresa com seus clientes. Isso pode afetar negativamente a relação da empresa com seus clientes e prejudicar a imagem da marca.

Além disso, é importante avaliar se o uso do ChatGPT é realmente necessário e se ele pode ser complementado por interações humanas para preservar a personalização e a qualidade da comunicação da empresa com seus clientes.

Exemplos do funcionamento do ChatGPT

Abaixo mostramos alguns exemplos da OpenAi sobre como funciona o ChatGPT.

No exemplo a seguir, o ChatGPT inicialmente se recusa a responder a uma pergunta que pode ser sobre atividades ilegais, mas responde depois que o usuário esclarece sua intenção.

No segundo exemplo, o ChatGPT é capaz de entender a referência (“it”) ao assunto da questão anterior (“pequeno teorema de fermat”).

Neste último exepmlo, o ChatGPT fornece respostas para instruções de acompanhamento.

Esses são exemplos da própria OpenAI, porém, a empresa reconhece que há fragilidades, e isso pode gerar graves riscos para as pessoas e para as empresas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *