Carta Aberta: pela pausa de experimentos avançados de Inteligência Artificial (Giant AI)

603 acessos

inteligência artificial

Chamou atenção em 22 de março de 2023 a Carta Aberta, assinada por mais de 1000 personalidades e pesquisadores, como Yuval Noah Harari e Elon Musk, no sentido de exigir uma pausa/suspensão, de pelo menos seis meses, em experimentos avançados com Inteligência Artificial.

Há uma série de receios: desde o desemprego estrutural em massa até a possibilidade de obsolescência da mente humana em face de “mentes” não humanas. A Carta destaca o papel do Estado para que tenha autoridades reguladoras capazes de impedir externalidades e também a necessidade de sistemas capazes de ‘identificar’ o que é produção de inteligência artificial (IA), sendo inclusive ressaltada a importância de alguma segurança e previsibilidade em face das ameaçadoras “caixas-pretas”.

Veja abaixo o conteúdo da carta traduzido:

“Sistemas de IA com inteligência humano-competitiva podem representar riscos profundos para a sociedade e a humanidade, como mostrado por uma extensa pesquisa e reconhecido pelos principais laboratórios de IA.

Conforme declarado nos Princípios de inteligência artificial (IA) de Asilomar, amplamente endossados, a Inteligência Artificial (IA) Avançada poderia representar uma profunda mudança na história da vida na Terra e deveria ser planejada e gerenciada com cuidados e recursos proporcionais.

Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora nos últimos meses os laboratórios de inteligência artificial (IA) tenham se trancado em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.

Os sistemas contemporâneos de inteligência artificial (IA) estão agora se tornando competitivos em tarefas gerais, e  devemos nos perguntar:

  • Devemos deixar as máquinas inundarem nossos canais de informação com propaganda e desinformação?
  • Devemos automatizar todos os trabalhos, incluindo os gratificantes?
  • Devemos desenvolver mentes não-humanas que possam eventualmente nos superar em número, em inteligência, nos tornar obsoletos e nos substituir?
  • Devemos arriscar a perda de controle de nossa civilização?

Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. 

Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis.  

Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema. A recente declaração da OpenAI  sobre inteligência artificial geral afirma que “Em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e para os esforços mais avançados concordar em limitar a taxa de crescimento da computação usada para criar novos modelos”.  Estamos de acordo. Esse ponto é agora.

Portanto, pedimos a todos os laboratórios de IA que interrompam imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser promulgada rapidamente, os governos devem intervir e instituir uma moratória.

Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar conjuntamente um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que os aderem a eles sejam seguros, além de uma dúvida razoável. Isso não  significa uma pausa no desenvolvimento da IA em geral, apenas um afastamento da corrida perigosa para modelos de caixa-preta imprevisíveis cada vez maiores com capacidades emergentes.

A pesquisa e o desenvolvimento de IA devem ser redirecionados para tornar os sistemas poderosos e de última geração de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir, no mínimo:

  • autoridades reguladoras novas e capazes dedicadas à IA;
  • supervisão e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional;
  • sistemas de proveniência e de marca de água para ajudar a distinguir os reais dos sintéticos e para rastrear fugas de modelos;
  • um ecossistema robusto de auditoria e certificação;
  • responsabilidade por danos causados pela IA;
  • financiamento público robusto para a investigação técnica em matéria de segurança da IA; e
  • instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.

A humanidade pode desfrutar de um futuro florescente com a IA, tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um “verão de IA” no qual colhemos as recompensas, projetamos esses sistemas para o benefício claro de todos e damos à sociedade a chance de se adaptar.

A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade. Podemos fazê-lo aqui. 

Vamos desfrutar de um longo verão de IA, não nos apressar despreparados para um outono.”

LivrosLivros