Mira Murati, o jovem CTO da OpenAI, está construindo o ChatGPT e moldando o seu futuro.

Mira Murati, o CTO da OpenAI, está construindo o ChatGPT e moldando seu futuro.

Normalmente é Altman quem é o rosto público da empresa mais conhecida em IA; na verdade, ele havia retornado recentemente de Washington, D.C., de conversas com o Congresso sobre regulamentação. Menos conhecida, mas igualmente crucial para a ascensão vertiginosa da OpenAI, é Murati, que muitas vezes trabalha nos bastidores. Murati, 34 anos, é a executiva responsável pela gestão do popular chatbot ChatGPT, bem como do DALL-E, um sistema de IA que cria arte a partir de texto – os produtos que impulsionaram a OpenAI, que começou há oito anos como um laboratório de pesquisa sem fins lucrativos, a alturas inesperadas.

Depois do lançamento do ChatGPT em novembro de 2022, o aplicativo acumulou mais de 100 milhões de usuários ativos mensais em apenas dois meses, tornando-se o aplicativo de consumo que mais cresce na história. E à medida que esses produtos continuam a evoluir, às vezes em resposta a falhas embaraçosas ou até perturbadoras, é Murati quem está cada vez mais responsável por explicar as últimas iterações para um público que parece hiperatento a cada avanço e passo em falso.

De fato, a OpenAI tem sido creditada com a introdução da mais recente evolução da tecnologia – a chamada IA generativa. Toda essa atenção também se traduz em dinheiro real. Embora seja estimado que o crescimento do ChatGPT com os consumidores tenha diminuído nos últimos meses, o uso entre os clientes corporativos está em alta. Este ano, a OpenAI está supostamente a caminho de arrecadar mais de $1 bilhão em receita. (Isso seria um grande salto: Documentos que surgiram como parte de uma rodada de investimentos no início deste ano sugeriram que a OpenAI arrecadou pouco menos de $30 milhões em receita em 2022.) E o acordo da empresa com a gigante de software Microsoft, que Murati ajudou a supervisionar, trouxe todas as possibilidades de distribuição, além de um investimento de $10 bilhões.

Da mesma forma que o exterior simples do escritório da OpenAI esconde a decoração altamente estilizada no interior, Murati apresenta uma aparência casual com jeans e uma camiseta, mas uma intensidade interna se torna rapidamente aparente quando você conversa com ela. Ela responde às perguntas lentamente e com cuidado, com um tom relaxado e ardente. Afinal, Murati diz que passa seu tempo pensando não apenas sobre as últimas funcionalidades do ChatGPT, mas também sobre se a IA trará o fim da humanidade.

Murati ingressou na OpenAI em 2018, após uma passagem pela Tesla. Mas ela não seguiu um caminho óbvio para as empresas mais famosas do Vale do Silício. Ela passou seus anos formativos em sua cidade natal, Albânia, crescendo durante a transição do país balcânico de um sistema comunista totalitário para um governo mais democrático. A transição foi repentina e um tanto caótica, mas ela disse que credita ao antigo regime uma coisa: quando tudo mais era igual, havia uma competição intensa pelo conhecimento. E embora a internet na Albânia fosse bastante lenta naquela época, ela já estava em busca de respostas para suas muitas perguntas (incluindo como o cérebro humano funciona) e procurando maneiras de aplicar a tecnologia aos maiores problemas da vida. Aos 16 anos, Murati deixou seu país de origem depois de receber uma bolsa de estudos para estudar em uma escola internacional em Vancouver, Canadá; mais tarde, ela obteve um diploma em engenharia em Dartmouth e, eventualmente, chegou a São Francisco para um cargo de gerente de produto sênior no Tesla Model X.

Murati tem como objetivo cultivar um conhecimento mais elevado. Uma das coisas que a atraiu para a OpenAI foi a crença da empresa de que pode alcançar a inteligência artificial geral – o conceito de computador que pode entender, aprender e pensar em coisas como um ser humano. Ela também acredita na AGI e é otimista quando se trata de IA de forma mais ampla (sem grande surpresa). Mas isso não significa que ela não esteja atenta aos riscos muito reais que a IA representa, hoje e no futuro.

Sentamos com Murati (após Altman deixar a sala) para saber mais sobre seu caminho até a OpenAI, os desafios que a empresa precisa enfrentar à medida que seus produtos se tornam onipresentes, além das últimas versões do DALL-E e novos recursos no ChatGPT, que incluirão comandos de voz pela primeira vez – uma mudança que pode tornar a próxima iteração da IA generativa ainda mais amigável ao usuário e aproximar a onipresença.

Esta entrevista foi editada por motivos de brevidade e clareza.

Quais são os melhores casos de uso que você está vendo com o DALL-E e especialmente com essa nova versão [DALL-E 3, que se integra ao ChatGPT para permitir que os usuários criem prompts]?

Apenas colocamos em pré-visualização de pesquisa, então ainda não vimos como as pessoas vão usá-lo de forma mais ampla. E inicialmente, estávamos bastante focados em todas as coisas que podem dar errado.

Mas em termos de casos de uso [bons], acho que existem usos criativos. Você pode criar algo realmente personalizado – como se seu filho gostasse muito de sapos e você quisesse criar uma história sobre isso, em tempo real, e então eles podem contribuir para a história. Então há muita criatividade e co-criação. E então, acho que no ambiente de trabalho, prototipar ideias pode ser muito mais fácil. Torna o ciclo inicial iterativo de construir qualquer coisa muito mais rápido.

Você tem algumas novidades adicionais sobre o produto. Você pode nos mostrar os destaques mais importantes aqui?

Então o panorama geral, e é sobre isso que temos falado há dois anos, é que nosso objetivo é chegar à IA geral e queremos chegar lá de uma maneira que garanta que a IA geral seja benéfica para a humanidade e que estejamos construindo algo que seja, em última análise, benéfico. Para fazer isso, você precisa que esses modelos tenham um conceito robusto do mundo, em texto, imagens, voz e diferentes modalidades.

Então, o que estamos fazendo é reunir todas essas modalidades, no ChatGPT. Estamos trazendo o DALL-E 3 para o ChatGPT e prevejo que será algo enorme e maravilhoso para interagir. E [outra] modalidade é a voz. Então, agora você terá a capacidade de conversar com o ChatGPT em tempo real. Não vou fazer uma demonstração. Mas você pode simplesmente conversar com ele e é…

[Murati pega o celular e abre o ChatGPT e depois pede para o aplicativo contar algo interessante por meio de um comando de voz. O chatbot responde: “Você sabia que o mel nunca estraga?”]

Então você está fazendo uma demonstração.

É muito mais fácil mostrar do que descrever. Basicamente, para onde tudo isso está indo é dar às pessoas a capacidade de interagir com a tecnologia de uma maneira muito natural.

Vamos dar um passo atrás: Há muito interesse não apenas no produto, mas nas pessoas que estão fazendo tudo isso acontecer. Quais você acha que são as experiências mais formativas que você teve e que moldaram você e quem você é hoje?

Certamente, crescer na Albânia. Mas também, comecei no setor aeroespacial, e meu tempo na Tesla foi certamente um momento muito formativo – passar por toda a experiência de design e implantação de um veículo completo. E definitivamente, chegar à OpenAI. Passamos de apenas 40 ou 50 pessoas quando entrei e éramos essencialmente um laboratório de pesquisa, e agora somos uma empresa de produtos completa, com milhões de usuários e muitos tecnólogos. [A OpenAI agora tem cerca de 500 funcionários.]

Como você conheceu o Sam e como chegou à OpenAI pela primeira vez?

Eu já estava trabalhando em aplicações de IA na Tesla. Mas eu estava mais interessada em inteligência geral. Eu não tinha certeza de que isso aconteceria naquele momento, mas sabia que mesmo que chegássemos muito perto, as coisas que construiríamos ao longo do caminho seriam incríveis, e eu achava que definitivamente seria o conjunto mais importante de tecnologias que a humanidade já construiu. Então, eu queria fazer parte disso. A OpenAI foi meio que uma escolha óbvia, porque na época era apenas a OpenAI e a [propriedade do Google] DeepMind trabalhando nisso. E a missão da OpenAI realmente ressoou comigo, construir uma tecnologia que beneficie as pessoas. Eu me juntei quando era uma organização sem fins lucrativos e, obviamente, desde então tivemos que evoluir – esses supercomputadores são caros. [Em 2019, a OpenAI se tornou uma empresa com fins lucrativos, embora ainda seja governada por um conselho sem fins lucrativos.]

Na época, lembro de conhecer Greg [Brockman] e Ilya [Sutskever] e Wojciech [Zaremba] e depois Sam. E ficou muito claro para mim que esse era o grupo de pessoas com o qual eu queria trabalhar.

Voltemos ao momento em que você lançou o ChatGPT no mundo. Você tinha ideia de que seria tão grande, que atrairia tanta atenção para a equipe?

Não. Achávamos que seria significativo e nos preparamos para isso. E então, é claro, todas as preparações se tornaram completamente irrelevantes, algumas horas depois. Tivemos que nos adaptar e mudar a maneira como operamos. Mas acho que essa é na verdade a chave de tudo o que estamos fazendo, porque o ritmo de avanço da tecnologia é incrivelmente rápido.

Tivemos que fazer isso com o ChatGPT. Sabe, estávamos usando internamente. E não ficamos tão impressionados com ele, porque já estávamos usando o GPT-4. E então não achamos que haveria um alvoroço tão grande lá fora. Mas não foi o caso.

Uma das outras coisas que aconteceram com o lançamento do ChatGPT é essa corrida armamentista. Tem o Google, obviamente, mas também um monte de outros concorrentes. Quais são as desvantagens disso?

Acho que a desvantagem é uma corrida rumo à falta de segurança. Isso é a desvantagem, com certeza.

Isso é uma grande desvantagem.

Sim. Cada um de nós tem que se comprometer a não fazer isso e resistir às pressões. Acredito que a OpenAI tem os incentivos certos para não fazer isso. Mas também acho que a competição é boa porque pode impulsionar o avanço e o progresso. Você pode tornar mais provável que as pessoas possam obter produtos que amam. Não acho que a competição seja ruim, em si. É mais que, se todo mundo está principalmente motivado apenas por isso e perdendo de vista os riscos e o que está em jogo, isso seria um grande problema.

Você se sente confiante de que, à medida que essa competição continua acelerando – e seus investidores esperam um retorno – esses incentivos podem resistir a todas essas pressões?

Sinto confiança na estrutura de nossos incentivos e no design que temos. Com nossos parceiros também, a maneira como estruturamos as coisas, estamos muito alinhados. Agora, acho que a parte mais difícil de dizer com confiança é ser capaz de prever as capacidades emergentes e antecipar alguns dos riscos de implantação. Porque, no final das contas, você precisa institucionalizar e operacionalizar essas coisas, e elas não podem ser apenas políticas e ideias.

Como você garante que está pensando nisso a cada nova iteração? Como são essas conversas à medida que você passa por cenários extremos?

Começa com a equipe interna, certo? Antes mesmo de termos um protótipo, estamos pensando muito nos dados que estamos usando e nos certificando de nos sentirmos bem com diferentes aspectos deles. É um ciclo muito iterativo, e aprendemos coisas ao longo do caminho e iteramos nisso.

Quando temos um protótipo, a primeira coisa que fazemos é testá-lo internamente e colocar especialistas em segurança [red-teamers] em áreas específicas que nos preocupam. Por exemplo, se vemos que o modelo é incrivelmente bom em criar rostos fotorrealistas, digamos assim, então faremos um teste de segurança e veremos o quão ruins são as coisas ruins que podem ser feitas com esse modelo. Como é o mau uso e o viés prejudicial? E, com base nesses resultados, voltaremos e implementaremos medidas de mitigação. Mas toda vez que há uma intervenção, auditamos como é a saída, porque você quer garantir algum tipo de equilíbrio – que você não tornou o produto completamente inútil ou realmente frustrante para trabalhar. E esse é um equilíbrio difícil, torná-lo útil, maravilhoso e seguro.

E agora, com o DALL-E 3, se houver algo na solicitação sobre criar rostos que definimos como [tendo] características sensíveis, então o modelo simplesmente rejeitará a solicitação. Mas você também não quer rejeitar solicitações em que o usuário realmente queira que o modelo faça algo que não seja ruim. E, portanto, esse é o tipo de sutileza com o qual precisamos lidar, mas você precisa começar em algum lugar, e agora estamos sendo mais conservadores e menos permissivos porque a tecnologia é nova. E então, à medida que entendemos melhor o que o modelo está fazendo e recebemos mais informações dos especialistas em segurança, podemos usar esses dados para tornar nossas políticas ou casos de uso mais sutis e ser mais permissivos com o que a tecnologia faz. Essa tem sido a tendência.

“A desvantagem [da competição em IA] é uma corrida rumo à falta de segurança. Cada um de nós tem que se comprometer a não fazer isso e resistir às pressões.”

Mira Murati, CTO da OpenAI

Sei que atualmente existem vários desafios de direitos autorais. [Nos últimos meses, vários escritores e outros criadores processaram a OpenAI, alegando que a empresa treina seus modelos usando suas escritas sem consentimento ou compensação.] Você acha que isso representa uma ameaça a longo prazo para ter modelos de treinamento adequados o suficiente?

No momento, estamos trabalhando muito com editoras e criadores de conteúdo. Acho que, no final das contas, as pessoas querem que essa tecnologia avance, seja útil e melhore nossas vidas. E estamos tentando entender o que pode funcionar, estamos meio que na vanguarda. Temos que tomar decisões muito difíceis e temos que trabalhar com as pessoas para entender como isso pode ser, como seriam coisas como compartilhamento de receita, a economia disso. Esta é uma tecnologia diferente, então por que estamos usando as mesmas políticas ou mentalidades que estávamos usando antes? E, portanto, estamos trabalhando nisso, mas ainda não temos uma solução. Provavelmente será complexo, mas estamos trabalhando com editoras e criadores de conteúdo para entender o que fazer aqui. Mas isso é definitivamente complexo e vai evoluir muito. O que estamos fazendo hoje provavelmente está apenas no início de descobrir a economia do compartilhamento de dados e atribuição de dados. Quando as pessoas produzem e trazem muito valor para o comportamento emergente de um modelo, como você pode até medir isso?

No lado regulatório, você disse que é a favor da regulamentação, mas quais são as uma ou duas peças mais importantes da regulamentação de IA que você acha que devem acontecer rapidamente? E o que mais te preocupa sobre a IA sendo liberada no mundo?

Acredito que a coisa mais importante que as pessoas podem fazer agora é realmente entendê-la. Mas olhando para o futuro, queremos que essas tecnologias sejam integradas, como, profundamente incorporadas em nossa infraestrutura. E se essas tecnologias vão estar em nossa infraestrutura elétrica, você precisa não apenas dos aspectos técnicos, mas também do quadro regulatório. Precisamos começar em algum lugar para que isso eventualmente se torne realidade.

Outra área que é muito importante é apenas pensar nos modelos que terão o que chamamos de capacidades perigosas. Existem dois tipos de uso indevido: existe o uso indevido “normal” e existe uma reviravolta traiçoeira desses sistemas de IA. E no caso em que há essa reviravolta traiçoeira, como devemos pensar sobre isso? Porque isso não é apenas sobre o uso diário. É uma tecnologia que provavelmente afetará a política internacional mais do que qualquer coisa que já construímos. O caso mais próximo é o das armas nucleares, é claro. Então, é sobre como podemos criar regulamentações que irão mitigar isso.

Vimos dois campos surgirem sobre o futuro da IA – um sendo muito utópico e outro que vê isso como uma ameaça existencial. Qual é a sua esperança para como esse futuro será?

Acredito que ambas as possibilidades são viáveis. Sou muito otimista de que podemos garantir que tudo corra bem. Mas a própria tecnologia carrega inerentemente ambas as possibilidades, e não é diferente de outras ferramentas que construímos no sentido de que há uso indevido e uma possibilidade de coisas realmente horríveis, até eventos catastróficos. E então, o que é único sobre isso é o fato de que também há a ameaça existencial, ou seja, basicamente o fim da civilização. Acredito que há uma pequena chance disso acontecer, mas há alguma pequena chance e, portanto, vale muito a pena pensar sobre isso.

Temos uma equipe inteira dedicada a isso e uma tonelada de poder de computação. Chamamos esse projeto de Super Alinhamento e trata de como alinhamos esses sistemas e garantimos que eles sempre ajam de acordo com nossos valores. E isso é difícil.

Este artigo aparece na edição de outubro/novembro de 2023 da ANBLE com o título “Mira Murati está moldando o futuro da IA – e talvez o seu também”.