Arriscar a extinção para viver 1.400 anos? Para este filósofo, risco da IA vale a pena

Por Tamires Vitorio 11 de Maio de 2026 👁️ 0 visualizações 💬 0 comentários
Arriscar a extinção para viver 1.400 anos? Para este filósofo, risco da IA vale a pena

A ideia parece ficção científica, mas o cálculo usado por Nick Bostrom é atuarial.

No estudo Optimal Timing for Superintelligence, o filósofo parte de uma hipótese: se uma superinteligência alinhada conseguisse reduzir a mortalidade humana ao nível de uma pessoa saudável de 20 anos em países desenvolvidos, a expectativa de vida restante poderia chegar a cerca de 1.400 anos.

A conta vem da taxa anual de mortalidade desse grupo, estimada entre 0,05% e 0,08% ao ano. Bostrom usa uma referência aproximada de 0,07%.

Transformada em expectativa de vida, a fórmula é simples: 1 ÷ 0,0007. O resultado é aproximadamente 1.400 anos.

O estudo considera esse cenário conservador porque não inclui possibilidades mais radicais, como mind uploading, nem a redução de mortes por acidentes, infecções ou suicídio.

A hipótese também não afirma que humanos viveriam exatamente 1.400 anos. O número representa uma expectativa média caso a mortalidade permanecesse estável, ao longo da vida, no patamar hoje observado entre adultos jovens saudáveis.

É a partir desse número que Bostrom chega ao ponto mais controverso do estudo.

Sem superinteligência, ele assume uma expectativa média restante de 40 anos. Com superinteligência bem-sucedida, a expectativa subiria para 1.400 anos.

A equação usada é: (1 - x) × 1.400 > 40.

Nela, x representa o risco de aniquilação causado pela IA. O resultado indica que desenvolver superinteligência ainda aumentaria a expectativa de vida esperada se o risco de extinção ficasse abaixo de 97%.

Em termos práticos, Bostrom argumenta que o enorme ganho potencial de longevidade mudaria o cálculo racional sobre risco — ao menos do ponto de vista das pessoas que já existem hoje.

Comentários

Deixe seu comentário abaixo: