Netrin

  • Casos de uso
    • Validação de Identidade para Bets
      Validação de CPF para iGaming & Gambling com comprovantes da Receita Federal.
    • Validação Dados Bancários
      Mitigue erros de pagamento com a solução de validação da dados bancários.
    • Saneamento de Dados
      Livre-se de cadastros errados. Programe uma limpeza de dados em seu sistema e receba um relatório completo das divergências encontradas.
    • Prevenção a riscos e fraudes
      Automatize seu processo de compliance e elimine riscos de passivos fiscais e de fraudes.
    • Automação de Onboarding PJ
      Otimize suas operações de cadastro de clientes e fornecedores com automação e agilize a entrada de parceiros.
    • Enriquecimento de Dados
      Transforme seu banco de dados em uma máquina de inteligência de negócios para sua empresa.
    • Background Check
      Checagem de antecedentes que automatiza a busca por informações relevantes sobre pessoas ou empresas antes de prosseguir com uma negociação.
    • KYC em PLD / FT
      Implemente controles com informações precisas para seu processo de PLD/FT de acordo com normas do BACEN.
  • Soluções
    • Plataforma Safe Partner
      A suite de ferramentas perfeita para automação de dados e saneamento cadastral.
    • SAP Compliance
      Conte com uma integração nativa, desenvolvida para ambientes SAP S/4Hana e ECC.
    • SAP Ariba Automation
      A integração para SAP Ariba SLP que automatiza a gestão de fornecedores, ganhando eficiência e garantido a integridade.
    • ID Validation
      Solução de validação de identidade digital white label para quem busca tecnologia antifraude e compliance regulatório com baixa fricção
  • API de Dados
  • Conteúdo
    • Podcast DATAlks by Netrin
    • Blog
    • Materiais
  • Suporte
  • Fale com Especialista
Busca
Categorias
  • Blog
  • Prevenção de Riscos e Antifraude
  • APIs
  • Background Check
  • Compliance
  • Dicas e Notícias
  • iGaming e Gambling
  • Gestão e Segurança

Home » Conteúdo » O que é o ChatGPT e quais são os riscos para as empresas?

27 de março

Dicas e Notícias

O que é o ChatGPT e quais são os riscos para as empresas?

Foto interna

Muitos tem se perguntado: Afinal, o que é ChatGPT?

No dia 30 de novembro de 2022 o serviço Beta ChatGPT, da OpenAI entrou no ar. A expectativa em relação ao software é de “não precisar” de pessoas para escrever textos de marketing, anúncios, ensaios, relatórios ou praticamente qualquer outra coisa além dos relatórios científicos mais especializados.

O ChatGPT tem surpreendio as pessoas com suas conversas semelhantes como a de pessoas. Porém, apesar da aparente facilidade, existem muitos riscos por trás dessa inteligência artificial, neste artigo vamos explorar melhor os riscos do ChatGPT.

Você vai ver nesse conteúdo:

  • Neste artigo você verá:
  • O que é ChatGPT?
  • Origem do ChatGPT
  • Limitações
  • Riscos gerais do ChatGPT
  • Vejamos abaixo os principais riscos do ChatGPT:
    • Utilização do ChatGPT para criar códigos maliciosos – riscos de cibersegurança
    • Ataques de phishing
    • Disseminação de desinformação e fake news
    • Problemas de plágio de dados
  • Riscos do ChatGPT para empresas
    • Confidencialidade
    • Tomada de decisões equivocadas
    • Responsabilidade legal
    • Impessoalidade e perda de personalização
  • Exemplos do funcionamento do ChatGPT

Neste artigo você verá:

  • O que é ChatGPT?
  • Origem do ChatGPT
  • Limitações do ChatGPT
  • Riscos do ChatGPT
  • Exemplos do funcionamento do ChatGPT

O que é ChatGPT?

O ChatGPT é um robô virtual gratuito que interage com seres humanos de forma fácil e rápida. Enquanto o bot ainda está em fase de teste, os usuários podem se inscrever e testá-lo de forma gratuita.

O ChatGPT usa a tecnologia de linguagem GPT-3.5. Um grande modelo de inteligência artificial elaborado pela empresa OpenAI que foi treinado com uma enorme quantidade de dados de texto de várias fontes.

O bot funciona como uma espécie de diálogo. Dessa forma, permite aos usuários fornecer instruções simples ou complexas que o ChatGPT é treinado para fornecer em uma resposta detalhada.

Segundo a OpenAI, o formato de diálogo permite que o ChatGPT responda a perguntas de acompanhamento, admita seus erros, conteste premissas incorretas e rejeite solicitações inadequadas.

Apesar de toda a empolgação, é importante esclarecer que a inteligência artificial da OpenAI não é perfeita e pode, inclusive, oferecer alguns perigos. Prova disso é que o bot já foi utilizado anteriormente por hackers para realizar golpes virtuais.

Outra possibilidade é que pessoas mal-intencionadas usem o chatbot para criar campanhas de phishing. Veja os riscos do ChatGPT no tópico “Riscos do ChatGPT”.

Origem do ChatGPT

O ChatGPT é o mais recente esforço da OpenAI Foundation – uma empresa de pesquisa apoiada pela Microsoft, o cofundador do LinkedIn Reid Hoffman e a empresa de capital de risco Khosla Ventures.

O objetivo é de criar sistemas de linguagem natural que podem não apenas acessar informações, mas realmente agregar, sintetizar e escrevê-las como uma pessoa faria. Ele usa o banco de dados e o mecanismo Generative Pretrained Transformer 3 (GPT-3) da OpenAI, que contém milhões de artigos que o mecanismo analisou para que possa “entender” as relações entre conceitos e suas expressões, bem como os significados desses conceitos, em condições naturais – linguagem de texto.

Segundo depoimento da OpenAI, o GPT-3 pode processar modelos de linguagem natural com 175 bilhões de parâmetros.

O ChatGPT não é o primeiro chatbot de inteligência artificial criado. Empresas como a Microsoft se interessaram pelo mundo dos chatbots, mas não obtiveram muito sucesso.

O bot da Microsoft, Tay, foi lançado em 2016 e, de acordo com o The Verge, os usuários do Twitter ensinaram ao bot retórica misógina e racista em menos de 24 horas – levando ao seu fim.

No mesmo ano, a Meta lançou o BlenderBot 3, no entanto, assim como Tay, o bot foi criticado por espalhar informações racistas, anti-semitas e falsas, como alegar que Donald Trump venceu a eleição presidencial de 2020, de acordo com o Mashable.

Para tentar mitigar esses riscos, a OpenAI empregou a Moderation API – um sistema de moderação baseado em inteligência artificial que foi treinado para ajudar os desenvolvedores a determinar se o idioma vai contra a política de conteúdo da OpenAI – que bloqueia a passagem de informações inseguras ou ilegais. Entretanto, a OpenAI admite que existem ainda falha em sua moderação e não é 100% preciso.

Limitações

Segundo a própria OpenAI, o software possui algumas limitações atualmente, como demonstramos abaixo:

  • Às vezes, o ChatGPT escreve respostas que parecem plausíveis, mas incorretas ou sem sentido. Corrigir esse problema é desafiador, pois: (1) durante o treinamento de RL, atualmente não há fonte de verdade; (2) treinar o modelo para ser mais cauteloso faz com que ele recuse perguntas que pode responder corretamente; e (3) o treinamento supervisionado engana o modelo porque a resposta ideal depende do que o modelo conhece, e não do que o demonstrador humano conhece.
  • O ChatGPT é sensível a ajustes na frase de entrada ou tentativas do mesmo prompt várias vezes. Por exemplo, dada a formulação de uma pergunta, o modelo pode alegar não saber a resposta, mas, com uma pequena reformulação, pode responder corretamente.
  • O modelo geralmente é excessivamente detalhado e usa certas frases, como reafirmar que é um modelo de linguagem treinado pela OpenAI. Esses problemas surgem de vieses nos dados de treinamento (os instrutores preferem respostas mais longas que pareçam mais abrangentes) e problemas conhecidos de otimização excessiva.
  • Idealmente, o modelo faria perguntas esclarecedoras quando o usuário fornecesse uma consulta ambígua. Em vez disso, os modelos atuais da OpenAI geralmente adivinham o que o usuário pretendia.
  • Embora haja esforço para fazer com que o modelo recuse solicitações inapropriadas, às vezes ele responde a instruções prejudiciais ou exibe um comportamento tendencioso. A OpenAI está usando a API de moderação para avisar ou bloquear certos tipos de conteúdo inseguro, mas espera que ela tenha alguns falsos negativos e positivos por enquanto.

Riscos gerais do ChatGPT

Preliminarmente, cabe destacar que o GPT-3 pode ter os mesmos tipos de pontos fracos predominantes na escrita humana, mas com menos filtros e recursos próprios, como censura: racismo, sexismo, outros preconceitos ofensivos, bem como mentiras, motivos ocultos e outras “fake news”.

 Ou seja, pode gerar um “conteúdo tóxico”, sob o ponto de vista da equipe da OpenAI. Em 2019, a empresa desativou o acesso público ao sistema predecessor GPT-2 para evitar o uso malicioso.

Além disso, especialistas em cibersegurança descobriram por meio de testes que ferramentas como o ChatGPT têm potencial de ajudar no desenvolvimento de malware e aprimorar os ataques de engenharia social.

De acordo com essa análise, elas podem diminuir significativamente a barreira de entrada dos cibercriminosos na construção de ataques, fornecendo recursos como textos de phishing ou peças de códigos maliciosos.

Vejamos abaixo os principais riscos do ChatGPT:

Utilização do ChatGPT para criar códigos maliciosos – riscos de cibersegurança

O ChatGPT pode ser usado para criar códigos maliciosos a partir de simples comandos, permitindo que hackers iniciantes ou e até mesmo pessoas comuns, sem conhecimento de programação, criem armadilhas virtuais para atacar dispositivos de empresas e usuários.

Em dezembro de 2022, pesquisadores da OpenAI identificaram publicações de hackers em fóruns clandestinos na dark web revelando que já usavam a ferramenta para praticar atividades fraudulentas e roubar dados pessoais. De acordo com o site Bleeping Computer, ao receber um comando para criar um malware, o ChatGPT geralmente entrega o que foi solicitado. Somente em alguns casos ele alega que houve violação da política de conteúdo.

Ataques de phishing

Esses ataques se tornariam mais sofisticados com e-mails mais convincentes. Assim, surgem sérias preocupações se o bot for usado para automatizar ataques de phishing, desde a geração de e-mails até a coleta de informações confidenciais. Isso pode resultar em perdas financeiras e caos em relação a quem culpar.

Disseminação de desinformação e fake news

A própria OpenAI admite que nem todas as informações encontradas no ChatGPT estão corretas, já que a ferramenta é alimentada com diferentes conteúdos da Internet.

O bot não mostra a fonte de suas respostas, isso dificulta a checagem do conteúdo. Além disso, o bot pode ajudar a disseminar desinformação, já que ChatGPT é alimentado com conteúdos publicados somente até o ano de 2021. Ou seja, para responder às perguntas dos usuários, o software trabalha apenas com notícias, artigos e tuítes desatualizados, que foram disponibilizadas na web há mais de um ano.

Problemas de plágio de dados

Outro risco proporcionado pelo bot é aumentar a incidência de plágios dos dados, já que a ferramenta pode ser usada para escrever trabalhos escolares e acadêmicos. Nessa fase, escritores a acadêmicos estão preocupados com o conteúdo deste novo modelo.

Com sistemas como o ChatGPT, alunos podem gerar conteúdo e descrevê-lo como seu próprio trabalho. Não só tem problema de plágio, mas também questões éticas.

De acordo com reportagem do jornal norte-americano The New York Times, o ChatGPT tem sido utilizado por alunos de escolas de Nova York e Seattle, tanto em salas do ensino fundamental quanto do ensino médio, para resolver tarefas e desenvolver trabalhos. Para evitar o mau uso da tecnologia, algumas escolas, inclusive, já proibiram o robô no Wi-Fi da instituição.

Riscos do ChatGPT para empresas

Além dos riscos gerais associados ao uso de modelos de linguagem como o ChatGPT, há alguns riscos específicos que podem afetar as empresas, incluindo:

Confidencialidade

Se uma empresa usa o ChatGPT para processar informações confidenciais, como dados de clientes ou informações financeiras, há um risco de vazamento dessas informações. É importante adotar medidas de segurança adequadas para proteger essas informações sensíveis.

Tomada de decisões equivocadas

Modelos de linguagem como o ChatGPT são baseados em probabilidades, o que pode levar a tomada de decisões equivocadas por parte da empresa. É importante verificar e avaliar as informações fornecidas pelo ChatGPT antes de tomar decisões importantes.

Responsabilidade legal

Se a empresa usa o ChatGPT para interagir com clientes ou outros terceiros, ela pode ser responsabilizada por quaisquer respostas inapropriadas ou incorretas fornecidas pelo modelo. É importante estabelecer políticas claras para o uso do ChatGPT e monitorar suas interações com terceiros para minimizar esse risco.

Impessoalidade e perda de personalização

O uso excessivo de modelos de linguagem como o ChatGPT pode levar a uma perda de interação humana e personalização na comunicação da empresa com seus clientes. Isso pode afetar negativamente a relação da empresa com seus clientes e prejudicar a imagem da marca.

Além disso, é importante avaliar se o uso do ChatGPT é realmente necessário e se ele pode ser complementado por interações humanas para preservar a personalização e a qualidade da comunicação da empresa com seus clientes.

Exemplos do funcionamento do ChatGPT

Abaixo mostramos alguns exemplos da OpenAi sobre como funciona o ChatGPT.

No exemplo a seguir, o ChatGPT inicialmente se recusa a responder a uma pergunta que pode ser sobre atividades ilegais, mas responde depois que o usuário esclarece sua intenção.

No segundo exemplo, o ChatGPT é capaz de entender a referência (“it”) ao assunto da questão anterior (“pequeno teorema de fermat”).

Neste último exepmlo, o ChatGPT fornece respostas para instruções de acompanhamento.

Esses são exemplos da própria OpenAI, porém, a empresa reconhece que há fragilidades, e isso pode gerar graves riscos para as pessoas e para as empresas.

Esse artigo foi útil?
[Total: 2Média: 3]

Conteúdos relacionados

Ver todos

Netrin lança jornada de conhecimento gratuita sobre compliance 

08 de novembro

Dicas e Notícias

Netrin lança jornada de conhecimento gratuita sobre compliance 

08 de novembro

Dicas e Notícias

Coaf: o que é e sua importância na segurança digital

18 de outubro

Dicas e Notícias

Coaf: o que é e sua importância na segurança digital

18 de outubro

Dicas e Notícias

Netrin recebe prêmio no SiGMA AWARDS AMERICAS

23 de junho

Dicas e Notícias

Netrin recebe prêmio no SiGMA AWARDS AMERICAS

23 de junho

Dicas e Notícias

O que é o ChatGPT e quais são os riscos para as empresas?

27 de março

Dicas e Notícias

O que é o ChatGPT e quais são os riscos para as empresas?

27 de março

Dicas e Notícias

Netrin participa do ASUG Day 2022 em São Paulo com conteúdos exclusivos em SAP

14 de outubro

Dicas e Notícias

Netrin participa do ASUG Day 2022 em São Paulo com conteúdos exclusivos em SAP

14 de outubro

Dicas e Notícias

Netrin marca presença no South Summit Brasil 2022

10 de maio

Dicas e Notícias

Netrin marca presença no South Summit Brasil 2022

10 de maio

Dicas e Notícias

Estudo global do Boston Consulting Group mostra o impacto da Inteligência Artificial no lucro das empresas

21 de janeiro

Dicas e Notícias

Estudo global do Boston Consulting Group mostra o impacto da Inteligência Artificial no lucro das empresas

21 de janeiro

Dicas e Notícias

Confira 10 tendências em ESG para 2022

10 de janeiro

Dicas e Notícias

Confira 10 tendências em ESG para 2022

10 de janeiro

Dicas e Notícias

Assine nossa Newsletter

Mantenha-se atualizado e cada vez mais seguro

Netrin
Safe. And Fast
Empresa
  • Sobre
  • Código de Ética | Netrin
  • Carreiras
  • Aviso de Privacidade
  • Política de Cookies
Conteúdo
  • Blog
  • Podcast DATAlks by Netrin
Produtos
  • Saneamento de Dados
  • Prevenção a Riscos e Fraudes
  • Automação de Onboarding PJ
  • Enriquecimento de Dados
  • Background Check
  • KYC em PLDFT
Atendimento
  • Suporte
  • Contato
Netrin Award
© 2025 Netrin
POLÍTICAS DE PRIVACIDADE Portal do Cliente