O bilion�rio Elon Musk e o diretor-executivo da OpenAI, Sam Altman, surpreenderam quando alertaram em uma carta aberta que a IA representava um risco de extin��o para a humanidade.
Seus cr�ticos consideraram, entretanto, que os empres�rios fizeram o pronunciamento com a inten��o de afirmar que somente seus projetos poderiam apresentar uma salva��o.
As ideologias associadas � filosofia do longo prazo, como o transumanismo - a cren�a de que os seres humanos podem ser transformados com a tecnologia - ou o altru�smo eficaz (criar o m�ximo de bem-estar poss�vel) j� exercem uma influ�ncia consider�vel nas universidades anglo-sax�nicas e no setor tecnol�gico.
Peter Thiel e Marc Andreessen s�o dois dos grandes investidores que come�aram a financiar empresas que procuram prolongar a vida humana.
Simultaneamente, cresce o n�mero de cr�ticos destas correntes, que, em termos gerais, se concentram na melhoria do bem-estar da humanidade a longo prazo, em vez de focar nos indiv�duos de hoje. Para estes opositores, a amea�a � clara: ela exerce muita influ�ncia nos debates p�blicos e pode ser perigosa.
- Alertas -
O escritor e historiador Emile Torres abra�ou esta corrente ideol�gica no passado, mas agora � um de seus maiores cr�ticos.
Em uma entrevista � AFP, alertou que a filosofia do longo prazo tem como base os mesmos princ�pios que justificaram assassinatos em massa e genoc�dios no passado.
Os defensores desta ideologia se projetam em um futuro distante em que milh�es de pessoas viajar�o ao espa�o para colonizar novos planetas. Tamb�m acreditam que se deve ter o mesmo dever com cada um destes futuros humanos, assim como com qualquer um dos que vivem hoje. E como s�o tantos, eles t�m muito mais peso que a humanidade atual.
Para Torres, este racioc�nio torna o longo prazo "verdadeiramente perigoso".
"Quando voc� tem uma vis�o ut�pica do futuro" e "as combina com uma moral utilitarista que diz que o fim pode justificar os meios, � perigoso", explica o autor do livro "Human Extinction: A History of the Science and Ethics of Annihilation" (Extin��o humana: Hist�ria da Ci�ncia e a �tica da Aniquila��o, em tradu��o livre).
Assim como outros especialistas, Torres busca redirecionar o debate para os problemas reais causados pela IA, como os direitos autorais, os preconceitos cognitivos ou a concentra��o de riqueza por um grupo de empresas.
Mas esse discurso, no entanto, esbarra nas opini�es cada vez mais alarmantes sobre o futuro, diz o autor.
"Falar sobre a extin��o da humanidade, de um acontecimento verdadeiramente apocal�ptico em que todos morrem, � muito mais emocionante do que falar sobre trabalhadores quenianos que recebem US$ 1,32 (cerca de R$ 7, na cota��o atual) por hora" para moderar o conte�do do IA, ressalta o historiador.
- Eugenia? -
A filosofia do longo prazo surgiu do trabalho do fil�sofo sueco Nick Bostrom sobre o risco existencial e o transumanismo nas d�cadas de 1990 e 2000.
De acordo com a pesquisadora Timnit Gebru, ex-membro da equipe de pesquisa sobre �tica e IA do Google - que foi demitida - o transumanismo tem sido vinculado � eugenia (tentativa de "melhorar" a humanidade por meio da sele��o gen�tica) desde o seu in�cio.
O bi�logo brit�nico Julian Huxley, que assinou o termo, tamb�m era um te�rico da eugenia. Bostrom tamb�m foi, por muito tempo, acusado de apoiar este movimento.
O fil�sofo, que atualmente � presidente do Instituto para o Futuro da Humanidade da Universidade de Oxford, pediu desculpas em janeiro ap�s admitir ter escrito publica��es racistas na internet na d�cada de 1990.
"Sou a favor da eugenia? N�o, n�o no sentido em que o termo � geralmente entendido", disse ele na �poca.
X
GOOGLE
PARIS