A evolução da inteligência artificial: GOFAI, IA embrionária e o conceito de "máquina criança".
(Gláucio Brandão)
Muito se tem falado sobre a IA (Inteligência Artificial) e sobre os Agentes Inteligentes, a próxima fronteira. Mas se os agentes são “a fronteira”, o que podemos esperar encontrar do outro lado? Bom, eu tenho uma hipótese, ancorada nos escritos do filósofo Eliezer Yudkowsky e numa fala de Alan Mathison Turing, cientista da computação britânico (1912 – 1954), os quais mencionam a evolução da inteligência artificial: GOFAI, IA embrionária e o conceito de “máquina criança”.
Acompanhem-me nessa viagem, na qual se pode descer antes do fim da Aula Condensada (AC). Começarei por alguns conceitos técnicos, porém necessários.
Para continuar entregando conteúdo de qualidade, Nossa Ciência precisa do apoio de seus leitores. Faça um pix para contato@nossaciencia.com
“A Inteligência Artificial Simbólica, também conhecida como Good Old-Fashioned AI (GOFAI), usa símbolos legíveis por humanos que representam entidades ou conceitos do mundo real, bem como a lógica (os métodos lógicos matematicamente comprováveis), a fim de criar ‘regras’ para a manipulação concreta desses símbolos, levando a um sistema baseado em regras”, diz o site da inbenta. Refere-se à abordagem clássica da inteligência artificial focada em regras explícitas, que foi predominante nas primeiras décadas do desenvolvimento da IA, especialmente nas décadas 1950-1980. Assim, a IA simbólica envolve a incorporação explícita de conhecimento humano e regras de comportamento em programas de computador. Até aqui, nada de novo no horizonte.
Peguei um trecho da fala de Turing na Wikipedia e pedi para o Copilot resumir em algumas linhas. Gerou uma mistura interessante e sintética:
[Copilot] Na maioria dos casos, os primeiros sistemas GOFAI não focaram na capacidade de aprendizagem, em incertezas ou na formação de conceitos, muito provavelmente porque as técnicas utilizadas para lidar com esses aspectos ainda não estavam plenamente desenvolvidas. Isso não quer dizer que essas ideias sejam muito recentes. A noção de que a capacidade de aprendizagem seria capaz de fazer com que um sistema mais simples atingisse níveis humanos de inteligência data, pelo menos, de 1950, quando Alan Turing descreveu o conceito de “máquina criança”.
[Turing] “Em vez de tentar criar um programa capaz de simular a mente de um adulto, por que não tentar produzir um que simule a mente de uma criança? Se ele fosse, então, submetido a uma trajetória apropriada de aprendizado, seríamos capazes de obter o cérebro de um adulto”.
Sobre a GOFAI, o ChatGPT resumiu isso para mim:
Embora a GOFAI tenha alcançado alguns sucessos notáveis, suas limitações ficaram evidentes quando se tratava de lidar com incertezas, aprendizado e adaptação. Isso levou ao desenvolvimento de novas abordagens, como as redes neurais e o aprendizado de máquina, que são mais adaptáveis e capazes de lidar com complexidades do mundo real.
A IAA (Friendly Artificial Intelligence – FAI) é defendida pelo cientista autodidata Eliezer Yudkowsky, que não frequentou o ensino médio nem a faculdade. Foi criado como judeu ortodoxo moderno, mas não se identifica religiosamente como judeu.
De acordo com a Wikipedia, o rapaz tem uma trajetória muito interessante: “… nascido em 11 de setembro de 1979, é um pesquisador americano de inteligência artificial e escritor sobre teoria da decisão e ética, mais conhecido por popularizar ideias relacionadas à inteligência artificial amigável. É o fundador e investigador do Machine Intelligence Research Institute (MIRI), uma organização privada de investigação sem fins lucrativos sediada em Berkeley, Califórnia. O seu trabalho sobre a perspectiva de uma explosão de inteligência descontrolada influenciou o livro de 2014 do filósofo Nick Bostrom, Superintelligence: Paths, Dangers, Strategies.”, conversa que tivemos na AC O que é Superinteligência?.
Ele foi um dos meus “musos” inspiradores para a hipótese que segue. Frisei a palavra “hipo”, pois ainda é uma ideia muito frágil. Mas, vai que cola, e eu viro uma referência em IA?!
Uma IA embrionária bem-sucedida teria a capacidade de se aprimorar de forma iterativa: a versão inicial da IA poderia desenvolver uma versão melhorada de si mesma, essa segunda versão seria ainda mais inteligente que a anterior e, da mesma forma, apta a criar outra versão superior de si própria, continuando esse ciclo ad eternum, admitindo que não conseguiremos mais puxar a “bicha” – a IA, em matutês fluente – da tomada.
De acordo com Yudkowsky, “Sob algumas condições, tal processo de automelhoria recursiva poderia continuar por tempo suficiente até resultar em uma explosão de inteligência – um evento no qual, em um curto espaço de tempo, o nível de inteligência de um sistema passaria de capacidades relativamente modestas de cognição (talvez sub-humanas em muitos aspectos, mas com talento específico para programar e realizar pesquisas em IA) a uma superinteligência radical. Esse modelo sugere a possibilidade de algumas surpresas: tentativas de projetar uma inteligência artificial geral podem falhar completamente até que o último componente crítico seja adicionado, ponto a partir do qual uma IA embrionária poderia ser capaz de manter um padrão de automelhoria recursiva.”.
(Vamos permanecer nessa conversa na próxima semana)
Leia outros textos da coluna Disruptiva
Gláucio Brandão é professor titular da Universidade Federal do Rio Grande do Norte (UFRN) e gerente executivo da incubadora inPACTA (ECT-UFRN)
Deixe um comentário