Luciano Carlos Cunha[1]
Sumário:
- 1. Introdução
- 2. Argumentos prós e contra focar em moldar a inteligência artificial (IA)
- 2.1. Por que tentar moldar a IA
- 2.2. Riscos do foco em moldar a IA
- 2.3. Qual o tamanho da influência das tecnologias?
- 3. Um exemplo de alinhamento de IA focada nos riscos-s
- 4. Evitando riscos indiretos relacionados à IA
- 5. Administração do espaço
- 6. Possibilidade da criação de outras formas de senciência
1. Introdução
Riscos-s[2]são riscos de que no futuro surjam práticas que gerem sofrimento de tamanho astronômico, muitas ordens de magnitude maior do que o sofrimento existente atualmente. Vários desses riscos dizem respeito ao aumento do poder tecnológico e à alta probabilidade de quem detiver essas tecnologias não ter consideração moral pelos indivíduos afetados por elas.
Diante disso, poder-se-ia pensar que uma solução para isso é tentar impedir o desenvolvimento tecnológico. Entretanto, há várias razões pelas quais essa estratégia não seria muito promissora:
- A tecnologia também poderia ser utilizada para reduzir sofrimento. Na ausência de tecnologia, não haveria como prevenir o sofrimento decorrente de causas naturais[3], por exemplo (e nem mesmo o sofrimento causado por humanos que não decorre do uso da tecnologia avançada).
- Não é realista supor que, mesmo que se obtivesse sucesso nessa empreitada, que isso estaria garantido para sempre.
- Uma campanha desse tipo poderia gerar conflito com quem almeja colher os benefícios da tecnologia.
- Não parece realista tentar prevenir certos tipos de tecnologias danosas.
Essas razões parecem indicar que tentar moldar o desenvolvimento de tecnologias é uma estratégia mais promissora para tentar reduzir os riscos-s.
Nessa discussão geralmente o foco é em como moldar a IA (inteligência artificial). Entretanto, como veremos, há outros riscos-s relacionados ao avanço de outros tipos de tecnologia, como a possibilidade de colonização espacial e do surgimento de novas formas de senciência, que podem ser mais preocupantes do que a IA.
A seguir discutiremos algumas sugestões dadas por Baumann (2022, p.77-84) em termos de moldar tecnologias emergentes. Adicionamos também uma discussão sobre tecnologias que poderiam gerar outras formas de senciência no futuro.
2. Argumentos prós e contra focar em moldar a inteligência artificial (IA)
Comecemos por discutir os pontos favoráveis e contrários ao foco em tentar moldar a IA[4].
2.1. Por que tentar moldar a IA
A principal razão para se tentar moldar a IA, se nosso objetivo é prevenir riscos-s, é a seguinte: se a IA vier a ter inteligência super humana, poderia moldar tudo o que acontecesse dali para diante de acordo com seus valores. Assim, influenciar esse processo poderia ser central para influenciar o futuro em longo prazo. Uma IA avançada tem o potencial para causar riscos-s, mas também poderia vir a prevenir riscos-s decorrentes de outras fontes.
O trabalho para reduzir os riscos-s por conta da IA é altamente negligenciado. Poucas pessoas trabalham em garantir que as metas da IA autônomas estejam alinhadas com as dos seus criadores (o que é chamado de AI safety). Entretanto, mesmo o alinhamento não é suficiente para prevenir riscos-s, pois as metas dos criadores podem ser indiferentes ao sofrimento (ou podem até mesmo almejar causar sofrimento). Por exemplo, as poucas pessoas que trabalham com AI safety geralmente levam em conta apenas os riscos para humanos. Esse grau de negligência alto nos permite ter bastante influência.[U2]
2.2. Riscos do foco em moldar a IA
Um risco envolvido ao se focar em tentar moldar a IA é o seguinte: como não sabemos como serão as tecnologias futuras, é alto o risco de que as tentativas de moldar a IA sejam ineficazes, ou mesmo perda de tempo.
Também podemos estar enganados quanto a quais tecnologias futuras terão mais influência. Pode ser que foquemos na IA e as tecnologias mais influentes sejam outras que ainda surgirão. Então, da mesma maneira que no passado não houve apenas uma tecnologia que determinou o curso da história, é provável que não haja apenas uma alavanca para moldar o futuro e reduzir riscos-s
2.3. Qual o tamanho da influência das tecnologias?
Mesmo que houvesse uma única tecnologia que tivesse a maior influência em determinar o futuro, e mesmo que soubéssemos qual é, ainda poderia ser que melhorar os valores, a cultura política e as instituições fosse a maneira mais eficaz de moldar o futuro (em vez de tentar moldar a tecnologia diretamente), pois o desenvolvimento tecnológico nunca é divorciado do contexto político e sociocultural (é este que determinará quais metas serão almejadas com o uso da tecnologia).
3. Um exemplo de alinhamento de IA focada nos riscos-s
Uma vez que sistemas de IA avançadas seriam agentes muito poderosos, é bastante possível que conflitos entre esses tipos de sistemas tivessem consequências desastrosas. Então, esforços para alcançar IA cooperativas são promissores para reduzir riscos-s.
Por exemplo, pode-se pesquisar como mitigar o risco se surgir na IA algo análogo a traços como psicopatia, sadismo, narcisismo e maquiavelismo[5]. Esses traços surgiram nos humanos durante a trajetória evolutiva. Então, poderia surgir algo equivalente nos ambientes de treinamento das IAs. Estudando os incentivos reforçados nesses ambientes, poderíamos tentar garantir que tais tendências não surgissem.
Também podemos criar medidas de segurança que entrariam em ação se ocorrer uma falha no alinhamento da IA com os valores de seus criadores. Entretanto, como está claro, os valores de seus criadores são cruciais para determinar qual será o resultado. Falaremos disso a seguir.
4. Evitando riscos indiretos relacionados à IA
Baumann (2022, p. 80-4) sugere as seguintes maneiras de evitar riscos indiretos relacionados à IA:
Tratados para garantir um desenvolvimento cooperativo da IA poderiam prevenir uma corrida armamentista entre as nações pelo controle da IA. Órgãos internacionais poderiam vistoriar o desenvolvimento da IA, e poderiam ser adotadas regras sobre como proceder se uma IA chegar a ter certas capacidades. É claro, qualquer acordo assim poderia ser difícil de ser implementado.
O surgimento de IA avançada poderia colocar em risco o estado de direito e as instituições democráticas. Então, é necessário investigar como evitar a turbulência política em um período de transição para a IA avançada, e como garantir que as leis ainda se apliquem nesse contexto.
Também é vital limitar a habilidade de agentes malévolos fazerem uso da IA. Uma possível maneira seria tentar distribuir as capacidades tecnológicas futuras de maneira a tornar difícil que um único agente cause grandes danos.
Além disso, podemos estabelecer padrões sobre como proceder caso uma IA demonstre senciência.
5. Administração do espaço
Como mencionado antes, os riscos-s devido à tecnologia não se limitam à IA. Muitos estão relacionados à colonização do espaço[6], pois o sofrimento poderia ser vastamente multiplicado pelo universo, a ponto de fazer o sofrimento existente na Terra “um grão de areia” em comparação.
Quando discutem esse risco, geralmente os defensores dos animais têm em mente a possibilidade de os humanos viverem em outros planetas e reproduzirem lá a exploração animal (como, por exemplo, o uso de animais para fins alimentícios). Entretanto, provavelmente o risco relacionado à possibilidade de colonização espacial está muito mais ligado à possibilidade de isso vir a expandir pelo universo o sofrimento e as mortes causados pelos processos naturais, pois talvez quando (e se) a colonização espacial se tornar praticável, talvez a exploração animal já esteja obsoleta.
A colonização espacial pode multiplicar o sofrimento causado por processos naturais simplesmente por expandir a vida para outras localidades (mesmo se for vida não senciente pois esta pode, depois de muito tempo, gerar seres sencientes). Isso é assim porque, dado o modo como ocorre a seleção natural, os processos naturais tendem a maximizar a quantidade de seres sencientes que nascem apenas para ter uma vida repleta de sofrimento e morrerem prematuramente. Por exemplo, a característica de se reproduzir tendo uma ninhada gigantesca (com milhares ou milhões de filhotes por ninhada) é um traço que tem muitas chances de prevalecer, pois é alta a probabilidade de pelo menos alguns filhotes sobreviverem e se reproduzirem, passando esse traço adiante, mesmo que todos os outros nasçam apenas para sofrer e morrer. De fato, é isso o que se pode deduzir que ocorre em populações estáveis (se a população permanece estável durante algumas gerações, isso é um sinal de que sobrevive em média apenas um descendente por progenitor). Essa é uma das razões pelas quais a quantidade de animais que sofrem em morrem em decorrência dos processos naturais é tão gigantesca que faz até mesmo os números da exploração animal quase desaparecem em comparação.
Atualmente não há regulamentações sobre exploração espacial. Assim, vale a pena criar regulamentações para se obter resultados positivos, quando (e se) a colonização espacial for praticável, tanto em termos de evitar conflitos quanto em termos de não se expandir o sofrimento indiretamente com a colonização espacial.
Poder-se-ia pensar que a maneira mais fácil de evitar esses riscos-s seria se opor à colonização do espaço. Essa é, certamente, uma estratégia possível. Entretanto, se a colonização espacial for inevitável, é também importante enfatizar que devemos fazê-la apenas depois que tivermos feito de tudo para garantir que o resultado seja positivo.
6. Possibilidade da criação de outras formas de senciência
Assim como a colonização espacial, uma possível criação de novas formas de senciência no futuro tem potencial de multiplicar o sofrimento enormemente. Isso poderia ocorrer por meio de modificações genéticas em animais não humanos e também por meio da criação de seres sencientes não orgânicos (por exemplo, em meios digitais[7]).
Em especial nesse segundo caso, esses seres poderiam ser muito diferentes (poderiam não ter rostos, não demonstrar que estão sofrendo etc.) e então ser muito provável de a maioria das pessoas não terem empatia por eles. Lembre, por exemplo, que os animais não humanos já são muito similares aos humanos em termos de mostrar que sofrem e, ainda assim, são feitas diariamente todo o tipo de atrocidade com eles. Além disso, pode vir a ser muito barato criar seres sencientes digitais em larga escala, e isso pode ser útil para vários propósitos (por exemplo, a criação de um universo dentro de um computador etc.).
Você pode ler mais sobre esse risco aqui.
Assim como acontece no caso da colonização espacial, também não há nenhuma regulamentação sobre isso, e nenhuma discussão ampla acontecendo. Então, é importante começar a defender a necessidade de haver discussão sobre regulamentação sobre essa prática, antes que ela surja.
Também há a opção de se tentar fazer campanha para que isso nunca venha a ser feito. Entretanto, assim como no caso da colonização espacial, é possível que isso seja inevitável, dado o progresso tecnológico geralmente ser muito mais rápido do que o progresso moral.
De qualquer maneira, há uma estratégia que podemos adotar que ajudaria tanto a aumentar as chances de que isso nunca venha a ser feito quanto as chances de que, caso vier a ser feito, que o dano resultante seja menor: divulgar da maneira eficiente possível a consideração moral por todas as formas de senciência. Essa parece ser uma estratégia bastante promissora (e essencial) para aumentar as chances de que os esforços para moldar as tecnologias sejam em direção a prevenir sofrimento, em vez de aumentá-lo.
REFERÊNCIAS
BAUMANN, T. S-risks: An introduction. Reducing Risks of Future Suffering: Toward a responsible use of new technologies, 2017.
BAUMANN, T. Avoiding the worst final: how to prevent a moral cathastrophe. Center for Reducing Suffering, 2022.
CUNHA, L. C. Razões para ajudar: o sofrimento dos animais selvagens e suas implicações éticas. Curitiba: Appris, 2022.
ÉTICA ANIMAL. Dinâmica de populações e o sofrimento dos animais. Ética Animal: ativismo e investigação em defesa dos animais, 27 out. 2015.
HORTA, O. Debunking the Idyllic View of Natural Processes: Population Dynamics and Suffering in the Wild. Télos, v. 17, p. 73-88, 2010.
MANNINO, A.; ALTHAUS, D.; ERHARDT, J.; GLOOR, L.; HUTTER, A.; METZINGER, T. Artificial intelligence: Opportunities and risks – Policy paper by Effective Altruism Foundation. Effective Altruism Foundation, [s.l.], 2015.
O’BRIEN, G. D. Directed Panspermia, Wild Animal Suffering, and the Ethics of World-Creation. Journal of Applied Philosophy, v. 39, n. 1, 2022.
TOMASIK, B. Applied Welfare Biology and Why Wild-Animal Advocates Should Focus on Not Spreading Nature. Essays on Reducing Suffering, 03 jun. 2022.
TOMASIK, B. Risks of astronomical future suffering. Foundational Research Institute, 02 jul. 2019.
TOMASIK, B. Why digital sentience is relevant to animal activists. Animal Charity Evaluators. 03 fev. 2015.
Notas:
[1] Doutor em Ética e Filosofia Política pela Universidade Federal de Santa Catarina, coordenador geral no Brasil das atividades da organização Ética Animal (www.animal-ethics.org/pt). É autor dos livros Uma breve introdução à ética animal: desde as questões clássicas até o que vem sendo discutido atualmente (2021) e Razões para ajudar: o sofrimento dos animais selvagens e suas implicações éticas(2022). Publicou também capítulos em outras obras e artigos em periódicos especializados, que podem ser lidos aqui: https://ufsc.academia.edu/LucianoCunha. Contato: luciano.cunha@animal-ethics.org.
[2] Sobre riscos-s, ver Baumann (2017, 2022) e Tomasik (2019).
[3] Para uma explicação sobre como os processos naturais tendem a maximizar a quantidade de animais que nasce para vidas repletas de sofrimento, ver Horta (2010) e Ética Animal (2015). Para uma análise das implicações éticas dessa situação, ver Cunha (2022).
[4] Para uma discussão sobre isso, ver Baumann (2022, p. 2022, p. 77-84) e Mannino et. al. (2015).
[5] Um exemplo de organização focada nisso é a Center on Long-Term Risk.
[6] Sobre esse risco, ver Tomasik (2022) e O’brien (2022).
[7] Sobre esse risco, ver Tomasik (2015).
A produção deste texto foi financiada pela organização Ética Animal.
