Todos os dias, desistimos voluntariamente de informações sobre máquinas. Isso acontece quando aceitamos um cookie on -line ou usamos um mecanismo de pesquisa. Mal pensamos em como nossos dados são vendidos e usados antes de clicar em “concordar” em chegar à página que queremos, pouco cientes de que serão usados para nos atingir como consumidores e nos convencer a comprar algo que não sabíamos que precisávamos.
Mas e se as máquinas estivessem usando os dados para decidir quem atingir como inimigos que precisam ser mortos? A ONU e um grupo de organizações não-governamentais estão preocupadas com o fato de esse cenário estar perto de ser uma realidade. Eles estão pedindo a regulamentação internacional de armas autônomas letais (leis) para evitar um futuro próximo, onde as máquinas ditam as escolhas de vida e morte.
Guerra de drones em larga escala se desenrolando na Ucrânia
Por vários meses, a região de Kherson, na Ucrânia, sofreu um ataque sustentado de drones armados operados pelos militares russos, direcionando-se principalmente aos não combatentes. Mais de 150 civis foram mortos e centenas feridos, segundo fontes oficiais. Uma investigação independente de direitos humanos não nomeados concluiu que esses ataques constituem crimes contra a humanidade.
O exército ucraniano também depende muito de drones e está desenvolvendo uma “parede de drones” – uma linha defensiva de veículos aéreos não tripulados armados (UAVs) – para proteger seções vulneráveis das fronteiras do país.
Uma vez que a reserva das nações mais ricas que poderiam pagar os UAVs de alta tecnologia e caros, a Ucrânia provou que, com um pouco de engenhosidade, drones de baixo custo podem ser modificados com efeito letal. Enquanto os conflitos em todo o mundo refletem essa mudança, a natureza do combate moderno está sendo reescrito.
© UNICEF/OLEKSI FILIPPOV
Rastejando ‘desumanização digital’
Mas, por mais devastador que seja essa forma moderna de guerra, o crescente espectro de drones não tripulados ou outras armas autônomas é adicionar uma nova urgência a preocupações contínuas sobre os ‘robôs assassinos’ chovendo a morte dos céus, decidindo por si mesmos quem deveriam atacar.
“O Secretário-Geral sempre disse que usar Máquinas com poder totalmente delegado, tomar uma decisão de tirar a vida humana é simplesmente moralmente repugnante”Diz Izumi Nakamitsu, chefe do escritório da ONU para assuntos de desarmamento. Não deveria ser permitido. Deve ser, de fato, proibido pelo direito internacional. Essa é a posição das Nações Unidas.”
A Human Rights Watch, uma ONG internacional, disse que o uso de armas autônomas será o mais recente e mais sério exemplo de “desumanização digital”, que a IA toma uma série de decisões que alteram a vida em questões que afetam os seres humanos, como policiamento, aplicação da lei e controle de fronteiras.
““Vários países com grandes recursos estão investindo fortemente em inteligência artificial e tecnologias relacionadas para desenvolver sistemas de armas autônomas à base de terra e mar. Isso é um fato, ” Adverte Mary Wareham, diretora de defesa da Divisão de Armas da Human Rights Watch. “Está sendo impulsionado pelos Estados Unidos, mas outros países importantes, como Rússia, China, Israel e Coréia do Sul, investem pesadamente em sistemas de armas autônomas”.
Os defensores da guerra orientada pela IA geralmente apontam para as limitações humanas para justificar sua expansão. Os soldados podem cometer erros de julgamento, agir sobre emoção, requerem descanso e, é claro, exigem salários – enquanto as máquinas argumentam, melhoram todos os dias na identificação de ameaças com base em padrões de comportamento e movimento. A próxima etapa, sugere alguns proponentes, está permitindo que sistemas autônomos decidam quando puxar o gatilho.
Um UAV (veículo aéreo não tripulado) é retratado no Airborne sobre o Afeganistão.
Existem duas objeções principais para deixar as máquinas assumirem o campo de batalha: primeiro, a tecnologia está longe de ser infalível. Em segundo lugar, a ONU e muitas outras organizações consideram o uso de leis como antiéticas.
“É muito fácil para as máquinas confundir alvos humanos”, diz Wareham, da Human Rights Watch. “Pessoas com deficiência correm risco particular porque elas se movem. Suas cadeiras de rodas podem ser confundidas com armas. Também há preocupação de que a tecnologia de reconhecimento facial e outras medições biométricas sejam incapazes de identificar corretamente as pessoas com diferentes tons de pele. A IA ainda é falha, e ela é feita com os despojadores das pessoas que programavam aqueles sistemas.”
Quanto às objeções éticas e morais, Nicole van Rooijen, diretora executiva de Pare os robôs assassinosuma coalizão em campanha por uma nova lei internacional sobre autonomia em sistemas de armas, diz que dificultava muito difícil determinar a responsabilidade por crimes de guerra e outras atrocidades.
“Quem é responsável? É o fabricante? Ou a pessoa que programou o algoritmo? Isso levanta toda a gama de problemas e preocupações, e seria um fracasso moral se fossem amplamente utilizados.”
Uma proibição até 2026?
A velocidade com que a tecnologia está avançando e a evidência de que os sistemas de segmentação ativados por IA já estão sendo usados no campo de batalha, está aumentando a urgência por trás dos pedidos de regras internacionais da tecnologia.
Em maio, as discussões informais foram realizadas na sede da ONU, na qual o Sr. Guterres pediu aos Estados -Membros que concordassem em um acordo juridicamente vinculativo para regular e proibir seu uso até 2026.
Tentativas de regular e proibir leis não são novas. De fato, a ONU realizou a primeira reunião de diplomatas em 2014, nas Nações de Palais em Genebra, onde o presidente das negociações de quatro dias, o embaixador Jean-Hugue Simon-Michel, da França, descreveu leis como “uma questão emergente emergente na agenda de desarmamento. A visão era que uma ação preventiva era necessária para obter regras em vigor na eventualidade de que a tecnologia tornaria as leis uma realidade.
11 anos depois, as negociações estão em andamento, mas ainda não há consenso sobre a definição de armas autônomas, muito menos a regulamentação acordada sobre seu uso. No entanto, as ONGs e a ONU estão otimistas de que a comunidade internacional está avançando lentamente em direção a um entendimento comum sobre questões -chave.
“Não estamos nem perto de negociar um texto”, diz Rouijen, da Stop Killer Robots. “No entanto, o atual presidente da Convenção sobre certas armas convencionais (um instrumento de direito humanitário da ONU para proibir ou restringir o uso de tipos específicos de armas que são consideradas para causar um sofrimento desnecessário ou injustificável a combatentes ou para afetar os civis indiscriminadamente), que pode formar um texto rolante que é realmente promissor e que, se a vontade política e a vontade política), que é uma troca de vontade política.
A Sra. Wareham, da Human Rights Watch, também vê as negociações de maio na ONU como um importante passo adiante. “Pelo menos 120 países estão totalmente a bordo com a chamada para negociar uma nova lei internacional sobre sistemas de armas autônomas. Vemos muito interesse e apoio, inclusive da Peace Laureates, especialistas em IA, trabalhadores de tecnologia e líderes religiosos”.
“Existe um acordo emergente de que os sistemas de armas que são totalmente autônomos devem ser proibidos”, diz Nakamitsu, do Escritório de Assuntos Desarmamentos da ONU. “Quando se trata de guerra, alguém precisa ser responsabilizado.”
Fonte: VEJA Economia
