No dia 26 de setembro de 1983, em plena Guerra Fria, um homem se recusou a confiar cegamente na tecnologia e evitou o que poderia ser o início da 3ª Guerra Mundial. Naquela madrugada, Stanislav Pretrov, tenente-coronel da Força de Defesa Aérea da extinta União Soviética, era o oficial de plantão no centro de comando do sistema de alerta de ataques nucleares. De repente, os computadores começaram a emitir sinais sonoros e visuais, profetizando uma catástrofe. Os EUA haviam lançado mísseis balísticos, aqueles capazes de percorrer distâncias continentais, em direção ao território soviético.
O protocolo militar para essas ocasiões era claro: o oficial deveria confirmar o ataque e reportar imediatamente aos seus superiores, que poderiam ordenar um contra-ataque nuclear massivo em poucos minutos. Isso cumpriria a doutrina da destruição mútua assegurada, ou seja, quem atacasse primeiro seria retaliado na mesma proporção, causando a destruição total de ambos. Entretanto, Petrov notou que algo não estava certo.
Em primeiro lugar, o sistema indicava poucos mísseis, e não um ataque massivo, como era esperado. Além disso, os radares em terra não confirmavam a ameaça. Um outro detalhe é que o sistema tinha um histórico de falsos positivos. Assim, contrariando os protocolos, Petrov decidiu confiar em seus instintos e na sua experiência, classificando o alerta como falso. Felizmente, ele estava certo, pois, como foi divulgado anos mais tarde, o sistema de monitoramento, que usava satélites, confundiu reflexos da luz solar em nuvens altas com lançamentos de mísseis.
Se Petrov tivesse confiado cegamente na tecnologia, os soviéticos poderiam ter iniciado uma resposta nuclear automática, com consequências incalculáveis para toda a humanidade. Infelizmente, o oficial não foi celebrado como herói na época; muito pelo contrário, foi repreendido por supostas falhas burocráticas, permanecendo décadas no mais profundo anonimato. Apenas anos mais tarde, o mundo tomou conhecimento do seu ato heroico velado.
Quase meio século depois, a história de Petrov soa estranhamente atual. Vivemos uma era em que algoritmos decidem o que lemos, assistimos e consumimos. Eles também influenciam decisões médicas, jurídicas, financeiras e até militares. Os sistemas de inteligência artificial (IA) prometem eficiência, precisão e produtividade e, muitas vezes, entregam, de fato, exatamente isso. O problema surge quando a confiança na tecnologia deixa de ser calculada e passa a ser total, desprezando aspectos inacessíveis pela máquina.
A lição de Petrov chama atenção para a cegueira causada pela dependência tecnológica. Sistemas automatizados podem até seguir protocolos validados matemática e cientificamente, mas, em certo grau, também refletem suposições criadas por pessoas. Assim, carregam erros, vieses, limitações e outros problemas que não são facilmente detectados. Quando tratados como infalíveis e definitivos, tornam-se perigosos, independente do contexto em que são usados.
Naquela madrugada de 1983, não foi a tecnologia que salvou o mundo de uma tragédia nuclear, foi a dúvida de um ser humano. Foi a capacidade de considerar o contexto e usar a experiência para assumir responsabilidades e questionar a máquina, sabendo que não existe tecnologia infalível. Petrov evitou uma guerra mundial; nós podemos evitar a tragédia da ignorância e da falta de pensamento crítico.
Em tempos em que delegamos cada vez mais decisões à tecnologia, principalmente à IA, a lição de Petrov nos lembra algo essencial: automação sem senso crítico não é progresso, não é produtividade, não é inovação. É apenas risco. Risco de se tornar previsível, substituível e incapaz de tomar as próprias decisões.
Prof. Me. Jorge Luís Gregório
Docente e coordenador do curso superior de Tecnologia em Análise e Desenvolvimento de Sistemas - Fatec Jales
