O criador do Oculus Rift, Palmer Luckey, defende a necessidade de uma classe guerreira: uma declaração que divide opiniões
Na tarde de terça-feira, em Malibu, Califórnia, o fundador da Anduril, Palmer Luckey, subiu ao palco da Universidade Pepperdine após um vídeo de três minutos repleto de cenas de drones colidindo e veículos militares explodindo. Em uma conversa de uma hora com o presidente da universidade, Jim Gash, o bilionário atacou os adversários dos Estados Unidos, defendeu armas completamente autônomas e insinuou uma oferta pública inicial (IPO) da Anduril.
Fundada em 2017 por Luckey, Trae Stephens, Matt Grimm, Joe Chen e Brian Schimpf, a Anduril, atualmente avaliada em US$ 14 bilhões, é uma empresa de tecnologia de defesa. Luckey deixou claro que não tinha hesitação em construir armas.
“As sociedades sempre precisaram de uma classe de guerreiros entusiasmados e dispostos a exercer violência contra outros em busca de bons objetivos”, disse ele a Gash. “Precisamos de pessoas como eu, doentes dessa maneira, que não perdem o sono fazendo ferramentas de violência para preservar a liberdade.”
Vestindo seu uniforme habitual de camisa havaiana e mullet, Luckey conduziu Gash pelos primeiros momentos da guerra na Ucrânia e explicou por que acredita que a Anduril poderia ter tido um grande impacto. Luckey disse que conheceu o presidente ucraniano Volodymyr Zelenskyy em 2019, depois que Zelenskyy leu sobre a Anduril em um artigo da Wired. Ele perguntou a Luckey se a Ucrânia poderia adquirir alguma da tecnologia de controle de fronteiras da Anduril. “Infelizmente, o Departamento de Estado não estava muito interessado na Ucrânia naquele momento”, disse Luckey.
“Olha, se pudéssemos fornecer inteligência em tempo real com rastreamento de grau de alvo de todos os sistemas de armas mais críticos da Rússia para a Ucrânia dias antes de sua força aérea ser eliminada, antes que seus fogos de precisão de longo alcance fossem esgotados, acho que isso poderia ter feito uma grande diferença”, disse ele.
A Anduril acabou fornecendo armas à Ucrânia na segunda semana da guerra, de acordo com Luckey.
Ele então se alinhou com muitos fundadores do Vale do Silício e pediu por um desenvolvimento ilimitado de IA (os produtos da Anduril são alimentados por sua plataforma de IA, Lattice). Ele insistiu que atualmente há “uma campanha secreta sendo travada nas Nações Unidas por muitos de nossos adversários” para enganar os países ocidentais a não perseguirem agressivamente a IA.
“[Nossos adversários] usam frases que soam muito bem em um som: ‘Bem, você não pode concordar que um robô nunca deve ser capaz de decidir quem vive e quem morre?'”, disse Luckey. “E meu ponto para eles é, onde está o alto moral em uma mina terrestre que não consegue diferenciar entre um ônibus escolar cheio de crianças e um tanque russo?”
O desenvolvimento de armas completamente autônomas – armas que não precisam da entrada de um humano sobre quem vive ou morre – é incrivelmente controverso. O governo dos EUA não as compra e até mesmo o co-fundador da Anduril, Stephens, disse que não gostaria de construí-las. “O julgamento humano é incrivelmente importante”, disse ele a Kara Swisher no ano passado. “Não queremos remover isso.”
Luckey encerrou a palestra insinuando o desejo da Anduril de eventualmente abrir capital. “A realidade é que, por razões políticas, práticas, financeiras, uma empresa negociada privadamente nunca vai ganhar algo como o esforço conjunto de caça [jato] de um trilhão de dólares”, disse ele. “Simplesmente não vai acontecer. O Congresso não permitirá que isso aconteça.”
As pessoas já consideraram a possibilidade de ser adquirida. “Eu apenas aponto como isso aconteceu comigo da última vez”, disse Luckey, referindo-se a como ele foi expulso do Facebook em 2016 após vender sua startup anterior, a empresa de realidade virtual Oculus.
Ao se levantar para sair, Gash tentou presenteá-lo com uma coleção encadernada de “O Senhor dos Anéis”, de onde Luckey tirou o nome “Anduril”. Mas Luckey recusou educadamente. “Não consigo caber isso na minha motocicleta”, disse ele.