21 Apr 2025
Como os LLMs e a IA generativa estão mudando o futuro da descoberta de percepções a partir dos dados?
Modelos de linguagem ampla (LLMs) e ferramentas de IA generativas transformaram a maneira como as organizações colocam em ordem a grande quantidade de dados on-line e off-line disponíveis. A IA pode restringir esse universo de dados a um resumo conciso apenas dos resultados mais relevantes, o que permite que as organizações gerem insights que não seriam possíveis por meio de pesquisas manuais.
Em um de nossos blogs, explicamos como uma abordagem de IA responsável pode ajudar as organizações a obter o máximo da tecnologia.
A IA inicia uma nova era para a geração de resumos e insights
Um relatório da McKinsey chamou o ano de 2023 de “ano de ruptura” da IA generativa e, desde então, sua pesquisa de 2024 revelou que a porcentagem de organizações que usam a tecnologia quase dobrou. Seu aumento foi observado em vários setores - por exemplo, 78% dos bancos implementaram a IA generativa em pelo menos um caso de uso, de acordo com o 2024 Global Outlook for Banking and Financial Markets da IBM.
Um dos principais motivos para a proliferação da IA generativa e dos LLMs é seu efeito transformador sobre o que as organizações podem fazer com a grande quantidade de dados disponíveis:
- As ferramentas generativas são treinadas em grandes volumes de dados para criar (ou “gerar”) instantaneamente novos conteúdos, como texto, imagens ou vídeos, em resposta a uma solicitação do usuário.
- Os LLMs usam o Processamento de Linguagem Natural para ingerir dados e gerar novos textos; analisar e classificar textos; encontrar padrões nos dados; e fornecer resumos concisos e relevantes.
Essas ferramentas oferecem dois benefícios principais para as organizações:
- Encontrar novos insights a partir dos dados: As ferramentas de IA podem trazer à tona novos insights a partir de grandes volumes de dados de uma forma que exigiria muitos recursos ou até mesmo seria impossível para os humanos fazerem manualmente. Os LLMs podem detectar tendências e padrões nos dados e analisar o tom e o sentimento de diferentes fontes. Os insights variam de riscos que devem ser investigados a oportunidades de novos produtos ou mercados a serem considerados. Os LLMs e a IA generativa devem melhorar sua tarefa com o tempo, à medida que aprendem com novos dados e interações repetidas com os usuários.
- Resumir grandes volumes de dados: Mesmo quando as ferramentas de IA revelam insights dos dados, o subconjunto menor de resultados relevantes que elas fornecem ainda pode consumir um tempo significativo do analista para processá-los e agir sobre eles. Os LLMs e as ferramentas de IA generativa podem analisar esse subconjunto para entender seu significado, extrair os pontos principais e fornecer um resumo conciso para o analista ou usuário. Isso torna mais fácil e rápido entender e identificar riscos e oportunidades a partir dos dados e distribuir as descobertas por toda a empresa.
A maior precisão e eficiência da IA para geração e resumo de insights levou muitas organizações a investir na tecnologia. Por exemplo:
- O Bank of Nova Scotia, do Canadá, usa LLMs para resumir as conversas entre um cliente e o chatbot do banco, de modo que, se uma consulta for encaminhada a um agente humano, ele economizará até 70% do tempo que levaria para ler a conversa.
- O Barclays está explorando o uso de IA generativa para melhorar sua detecção de fraude e lavagem de dinheiro, reconhecendo padrões nos dados que poderiam prever atividades ilícitas.
- O Morgan Stanley usa ferramentas de processamento de linguagem natural para aprimorar os serviços que oferece às empresas, incluindo o fornecimento de informações sobre contas e a oferta de consultoria financeira personalizada.
IA responsável: melhorar a precisão e a credibilidade dos resumos e insights da IA
As ferramentas de IA generativa e os LLMs têm problemas ocultos que podem prejudicar os resumos e os insights que fornecem às organizações. Muitos dos problemas decorrem da natureza de “caixa preta” da IA. Os seres humanos nem sempre conseguem ver ou entender por que e como o modelo chegou a uma determinada resposta, insight ou resumo. Isso traz vários riscos:
- Viés algorítmico: se não conhecermos a lógica dos insights de uma IA, não poderemos identificar os vieses de seus desenvolvedores ou os dados com os quais ela foi treinada.
- Alucinações: Um risco das IAs e LLMs generativas é que, às vezes, a resposta a uma solicitação do usuário é errônea e não se baseia em dados precisos. O New York Times informou que até 27% das respostas de algumas das ferramentas de IA generativas mais conhecidas podem ser alucinações.
- Riscos de dados: Os dados usados para alimentar as tecnologias de IA às vezes não cumprem as normas regulatórias de segurança e privacidade ou não respeitam a propriedade intelectual de seus originadores ou proprietários. No entanto, muitos LLMs e ferramentas de IA generativas produzem conteúdo sem citar a fonte. Se os insights ou resumos forem baseados em dados usados sem a permissão expressa dos editores, a organização que estiver agindo com base nesses insights estará exposta a riscos legais.
Superar esses riscos para aproveitar o potencial da IA é uma prioridade para organizações de todos os setores. A abordagem mais promissora é implementar uma abordagem de Negócios Responsáveis para a IA. Isso significa que a IA e os dados que a alimentam devem ser desenvolvidos e implantados de forma ética e em conformidade com a lei. Ela introduz uma estrutura que não mede apenas o potencial da IA para inovação e lucro, mas também o quanto ela promove os valores fundamentais e a ética da empresa.
Embora a IA responsável parta de um conjunto de princípios sobre o uso ético de dados e tecnologia, as organizações precisam implementá-los de forma prática. Um método comum usado pelas organizações é a criação de um comitê que considera todas as iniciativas potenciais de IA em relação a uma estrutura de Negócios Responsáveis para IA.
Outra opção é estabelecer barreiras que determinem como a equipe pode e deve usar os LLMs e as ferramentas de IA generativas. Uma proteção que pode reduzir o risco de alucinações com IA é adotar uma técnica de Geração Aumentada por Recuperação (RAG) para ferramentas de IA generativas e LLMs. Essa abordagem garante que a ferramenta recupere todas as respostas de fontes de dados originais e confiáveis, o que substitui seu aprendizado contínuo a partir de dados de treinamento e solicitações e respostas subsequentes. Cada resposta deve citar as fontes usadas para compilá-la, o que permite que a organização verifique essas informações e estabeleça que não se trata de uma alucinação.
Potencialize sua abordagem de IA responsável com dados e tecnologia da LexisNexis®
A LexisNexis oferece uma combinação poderosa de conteúdo credível e licenciado e tecnologia sofisticada que pode impulsionar a implementação eficaz da IA responsável. Suas vantagens incluem:
- Dados confiáveis adaptados para IA: Como fornecedora de dados estabelecida há mais de 50 anos, a LexisNexis tem acordos de licenciamento de conteúdo extensos e de longa data - e, em alguns casos, exclusivos - com editoras do mundo todo. Fornecemos dados para permitir que você avance em seus objetivos, reconhecendo e respeitando os direitos de propriedade intelectual de nossos parceiros licenciados.
- Um provedor confiável e comprometido com a IA responsável: consideramos o impacto no mundo real de nossas soluções de tecnologia e dados sobre as pessoas, colocando o avanço do Estado de Direito no centro de nossa estratégia de negócios e seguindo os Princípios de IA responsável da RELX.