Pedindo pausa ao desenvolvimento das tecnologias, empresários escrevem carta sobre inteligência artificial; entenda as demandas.
Na última quarta-feira (29), vários empresários do segmento tecnológico, incluindo Elon Musk, se pronunciaram de forma pública a respeito de uma possível pausa no desenvolvimento e treinamento mais sofisticado de novas formas de inteligência artificial (IA).
O pedido vem de uma preocupação destes empresários com a substituição de pessoas por máquinas num futuro próximo. A manifestação se deu por meio de uma carta aberta, que foi disponibilizada ao público na Future of Life Institute.
Os problemas que foram apresentados na carta sugerem que, com o avanço estrondoso de ferramentas, como o GPT-4, desenvolvido pela OpenAI, as pessoas possam ser substituídas ou até mesmo entrar em disputa com a tecnologia.
Solucionando o problema
A carta disponibilizada pela Future of Life Institute ainda acrescentou que a solução mais adequada para tamanha situação era paralisar as pesquisas e processos de desenvolvimento realizados em laboratórios de inteligência artificial. Confira um trecho do documento:
“Os sistemas de IA contemporâneos estão se tornando competitivos em tarefas gerais e devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade?”
“Devemos automatizar todos os trabalhos, incluindo os satisfatórios? […]
Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização?”
Mas, além da pausa sugerida na carta, outros empresários que também assinaram o documento, como Steve Wozniak, Evan Sharp, Jaan Tallinn e John Joseph Hopfield, acreditam que deva haver uma criação de termos a fim de estabelecer os limites da inteligência artificial.
Para que haja o desenvolvimento seguro de tecnologias capazes de produzir, como o ChatGPT, seria necessário estabelecer os limites éticos e morais.
Contudo, se mesmo após tudo isso os laboratórios de IA não decidirem adotar a pausa em questão, a carta é finalizada com um pedido para que os governos estabeleçam multas.