A coisa mais quente em IA é algo chamado RAG

A tendência mais quente em IA conheça o RAG

Se você tem acompanhado as discussões sobre IA online ou visitou uma conferência recente de IA, provavelmente já ouviu todo mundo falando sobre RAG.

RAG, ou recuperação com geração ampliada, é uma técnica emergente para dar a um modelo de IA existente novas informações para que ele execute uma tarefa específica. Enquanto o ajuste fino envolve adaptar um modelo existente usando novos dados, resultando em um modelo derivado, o RAG consiste simplesmente em fornecer ao modelo um conjunto de informações com as quais ele nunca foi treinado e pedir que ele leve essas informações em consideração em sua resposta. Com o RAG, você não está mudando o modelo, apenas pedindo a ele que consulte temporariamente dados externos para concluir sua solicitação específica. Ele “esquece” as informações imediatamente.

“Na versão mais simples, eu recupero do meu banco de dados interno alguns documentos ou algum texto que eu quero e envio para o modelo junto com minha solicitação: ‘Responda esta pergunta’ ou ‘Resuma isso’. O modelo faz isso. O modelo não mudou. Eu faço outro RAG com uma nova solicitação e ele continua”, disse Sriram Raghavan, vice-presidente da IBM Research AI, à Eye on AI. “A razão pela qual é muito popular é porque é simples.”

Essa abordagem mais simples para trabalhar com LLMs existentes só é possível por causa do enorme poder dos modelos mais recentes. Raghavan estima que essa técnica começou a ganhar popularidade há cerca de seis a nove meses, após o lançamento do ChatGPT em um ou dois trimestres. Ela é incrivelmente útil para qualquer pessoa que queira construir um aplicativo usando um modelo de linguagem grande existente, e é fácil entender por que está se tornando popular.

O ajuste fino e até mesmo a engenharia de prompts, em que os usuários estruturam e refinam textos para obter respostas específicas dos LLMs, consomem muito tempo e adicionam muita complexidade. Enquanto o ajuste fino geralmente exige que você forneça centenas ou milhares de exemplos ao modelo, o RAG requer apenas um ou dois documentos, talvez algumas dezenas. Claro, tarefas mais complexas continuarão exigindo o processo mais intensivo do ajuste fino, mas o RAG oferece uma maneira fácil de potencializar um LLM líder para executar uma variedade ampla de tarefas com dados mais recentes, dados específicos do domínio e até mesmo dados proprietários.

“Eu quero aproveitar o fato de que o modelo é bom em linguagem, sabe como trabalhar com ela”, disse Raghavan. “Quero aproveitar isso, mas quero fazer isso com meus dados.”

Mas o RAG não é uma solução milagrosa. À medida que os modelos melhoram cada vez mais, a recuperação se torna a parte difícil, segundo Raghavan. É preciso fornecer ao modelo a entrada correta, o que pode significar pesquisar em um grande conjunto de documentos para reduzi-lo aos mais relevantes, dividir documentos ou, porque os LLMs só conseguem ler texto, reformatar documentos em PDF mais complexos que contenham tabelas, gráficos e gráficos.

A IBM está trabalhando atualmente em ofertas específicas voltadas para ajudar os desenvolvedores de aplicativos a usar o RAG. Por exemplo, eles estão criando padrões e “cozinhas” que oferecem receitas sobre como fazer o RAG de acordo com o tipo de aplicativo que você deseja desenvolver. Microsoft, Google e Amazon também têm suas próprias soluções de RAG. As empresas desejam usar o poder dos LLMs em seus próprios dados, o que significa que o RAG desempenha um papel importante, especialmente no mundo corporativo.

E com isso, aqui estão mais notícias sobre IA.

Sage Lazzaro[email protected]sagelazzaro.com

IA NAS NOTÍCIAS

Secretário-Geral da ONU lança um Grupo Consultivo de Alto Nível sobre IA. O grupo irá considerar como pode vincular diversas iniciativas de governança de IA já em andamento e “irá trabalhar rápido, pois estamos contra o tempo”, disse o Secretário-Geral da ONU, António Guterres, em seus comentários, acrescentando que ele fará recomendações preliminares até o final do ano. Ele enfatizou que o grupo terá equilíbrio de gênero, diversidade geográfica, englobará diferentes gerações e que seus membros trarão uma ampla gama de perspectivas com “vasta experiência em governos, empresas, comunidade tecnológica, sociedade civil e academia”. A ideia de criar um grupo como esse passou a ser central nas discussões sobre como lidar com os impactos cada vez maiores dessa tecnologia na sociedade, e alguns líderes em IA, como o CEO da OpenAI, Sam Altman, são grandes defensores dessa ideia.

O Presidente Joe Biden deve anunciar uma ordem executiva de IA na segunda-feira. Isso é de acordo com o Washington Post. A ordem é esperada para exigir “modelos de IA avançados para passar por avaliações antes que possam ser usados pelos trabalhadores federais” e também facilitar a imigração de trabalhadores de tecnologia altamente qualificados para os EUA.

A Cruise, da GM, recolhe toda a sua frota de carros autônomos. Dias depois de a DMV da Califórnia suspender a licença da Cruise para testar carros sem motorista no estado e operar seu serviço de táxi robô 24/7 em San Francisco, a Cruise anunciou que interromperá as operações sem motorista de seus veículos em todos os lugares. A empresa pertencente à GM, que também tem testado seus veículos em cidades como Austin, Phoenix e Miami, disse que estava fazendo a pausa para ajudar a restaurar a confiança pública. A DMV da Califórnia citou preocupações com a segurança ao suspender o permisso da Cruise após vários acidentes de alto perfil.

14 invenções de IA fazem parte da lista das 200 melhores invenções de 2023 da Time. A lista homenageia vários modelos de IA, incluindo o GPT-4 e o DALL-E 3 da Open AI, o SeamlessM4T da Meta e o Stable Audio da Stability AI. Os homenageados também incluem sistemas de IA desenvolvidos para proteção ambiental, incluindo o AlertCalifornia e o Cal Fire AI Wildfire Detector system da University of San Diego, bem como o TrailGuard AI, que é projetado para ajudar a monitorar espécies em perigo e detectar caçadores ilegais.