Quem é Ilya Sutskever, o homem no centro da reestruturação da liderança da OpenAI – e por que ele está tão preocupado com a inteligência artificial superinteligente ficando descontrolada?

Quem é Ilya Sutskever, o cérebro por trás da revolução na liderança da OpenAI - e por que ele está tão incomodado com o domínio desenfreado da inteligência artificial superinteligente?

No mês passado, Sutskever, que geralmente evita os holofotes da mídia, sentou-se com a MIT Technology Review para uma longa entrevista. O israelense-canadense contou à revista que seu novo foco era como evitar que uma superinteligência artificial – que pode superar os humanos, mas até onde sabemos ainda não existe – fique fora de controle.

Sutskever nasceu na Rússia Soviética, mas foi criado em Jerusalém a partir dos cinco anos de idade. Em seguida, ele estudou na Universidade de Toronto com Geoffrey Hinton, um pioneiro em inteligência artificial, às vezes chamado de “padrinho da IA”.

No início deste ano, Hinton deixou o Google e alertou que as empresas de IA estavam correndo perigo ao criar agressivamente ferramentas de IA generativas, como o ChatGPT da OpenAI. “É difícil ver como você pode impedir que os atores mal-intencionados o usem para coisas ruins”, ele disse ao New York Times.

Hinton e dois de seus alunos de pós-graduação – um deles sendo o Sutskever – desenvolveram uma rede neural em 2021 que foi treinada para identificar objetos em fotos. Chamado de AlexNet, o projeto mostrou que as redes neurais eram muito melhores em reconhecimento de padrões do que se pensava. 

Impressionado, o Google comprou a DNNresearch de Hinton e contratou Sutskever. Enquanto estava na gigante da tecnologia, Sutskever ajudou a mostrar que o mesmo tipo de reconhecimento de padrões exibido pelo AlexNet para imagens também poderia funcionar para palavras e frases.

Mas Sutskever logo chamou a atenção de outro jogador poderoso em inteligência artificial: o CEO da Tesla, Elon Musk. O bilionário imprevisível há muito tempo alertava sobre os perigos potenciais que a IA representa para a humanidade. Ele ficou alarmado anos atrás com Larry Page, cofundador do Google, não se importando com a segurança da IA, ele disse no Lex Fridman Podcast neste mês, e com a concentração de talentos em IA no Google, especialmente depois que adquiriu DeepMind em 2014. 

Aconselhado por Musk, Sutskever deixou o Google em 2015 para se tornar co-fundador e cientista-chefe da OpenAI, então uma organização sem fins lucrativos que Musk imaginava ser uma contrapartida ao Google no espaço de IA. (Musk mais tarde desentendeu-se com a OpenAI, que decidiu não ser sem fins lucrativos e recebeu bilhões de investimentos da Microsoft, e agora ele tem um concorrente do ChapGPT chamado Grok.)

“Essa foi uma das batalhas de recrutamento mais difíceis que já tive, mas foi realmente o ponto crucial para o sucesso da OpenAI”, disse Musk, acrescentando que Sutskever, além de inteligente, era um “bom ser humano” com um “bom coração”. 

No OpenAI, Sutskever desempenhou um papel fundamental no desenvolvimento de grandes modelos de linguagem, incluindo o GPT-2, GPT-3 e o modelo de texto para imagem DALL-E.

Depois veio o lançamento do ChatGPT no final do ano passado, que atraiu 100 milhões de usuários em menos de dois meses e deu início ao atual boom da IA. Sutskever disse à Technology Review que o chatbot de IA deu às pessoas um vislumbre do que era possível, mesmo que depois tenha decepcionado retornando resultados incorretos. (Advogados envergonhados após confiarem demais no ChatGPT estão entre os decepcionados.)

Mais recentemente, o foco de Sutskever tem sido nos perigos potenciais da IA, especialmente uma vez que a superinteligência da IA, capaz de superar os seres humanos, chegar, o que ele acredita que possa acontecer dentro de 10 anos. (Ele distingue isso da inteligência artificial geral, ou AGI, que apenas pode igualar os seres humanos.)

Central para a reorganização de liderança na OpenAI na sexta-feira estava a questão da segurança da IA, de acordo com fontes anônimas que falaram para a Bloomberg, com Sutskever discordando de Altman sobre quão rapidamente comercializar produtos de IA generativa e as etapas necessárias para reduzir possíveis danos públicos.

“Obviamente, é importante que qualquer superinteligência construída por alguém não saia do controle”, disse Sutskever à Technology Review.

Com isso em mente, seus pensamentos viraram-se para a alinhamento – direcionar sistemas de IA para os objetivos ou princípios éticos pretendidos pelas pessoas, em vez de perseguir objetivos não intencionados, mas como isso pode ser aplicado à superinteligência da IA.

Em julho, Sutskever e seu colega Jan Leike escreveram um anúncio da OpenAI sobre um projeto de alinhamento de superinteligência, ou “super-alinhamento”. Eles alertaram que, embora a superinteligência possa ajudar a “resolver muitos dos problemas mais importantes do mundo”, ela também pode ser “muito perigosa e pode levar à desempoderamento da humanidade ou até mesmo à extinção humana”.