Arriscar a extinção para viver 1.400 anos? Para este filósofo, risco da IA vale a pena
A ideia parece ficção científica, mas o cálculo usado por Nick Bostrom é atuarial.
No estudo Optimal Timing for Superintelligence, o filósofo parte de uma hipótese: se uma superinteligência alinhada conseguisse reduzir a mortalidade humana ao nível de uma pessoa saudável de 20 anos em países desenvolvidos, a expectativa de vida restante poderia chegar a cerca de 1.400 anos.
A conta vem da taxa anual de mortalidade desse grupo, estimada entre 0,05% e 0,08% ao ano. Bostrom usa uma referência aproximada de 0,07%.
Transformada em expectativa de vida, a fórmula é simples: 1 ÷ 0,0007. O resultado é aproximadamente 1.400 anos.
O estudo considera esse cenário conservador porque não inclui possibilidades mais radicais, como mind uploading, nem a redução de mortes por acidentes, infecções ou suicídio.
A hipótese também não afirma que humanos viveriam exatamente 1.400 anos. O número representa uma expectativa média caso a mortalidade permanecesse estável, ao longo da vida, no patamar hoje observado entre adultos jovens saudáveis.
É a partir desse número que Bostrom chega ao ponto mais controverso do estudo.
Sem superinteligência, ele assume uma expectativa média restante de 40 anos. Com superinteligência bem-sucedida, a expectativa subiria para 1.400 anos.
A equação usada é: (1 - x) × 1.400 > 40.
Nela, x representa o risco de aniquilação causado pela IA. O resultado indica que desenvolver superinteligência ainda aumentaria a expectativa de vida esperada se o risco de extinção ficasse abaixo de 97%.
Em termos práticos, Bostrom argumenta que o enorme ganho potencial de longevidade mudaria o cálculo racional sobre risco — ao menos do ponto de vista das pessoas que já existem hoje.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: