A armamento da inteligência artificial



<div _ngcontent-c14 = "" innerhtml = "

A realidade do surgimento de sistemas de armas autônomasDepositphotos reforçada por CogWorld

Introdução

O desenvolvimento tecnológico tornou-se uma corrida de ratos. Na competição para liderar a corrida tecnológica emergente e o campo de batalha da guerra futurista, a inteligência artificial (IA) está rapidamente se tornando o centro do jogo de poder global. Como visto em muitas nações, o desenvolvimento do sistema de armas autônomo (AWS) está progredindo rapidamente, e esse aumento no armamento da inteligência artificial parece ter se tornado um desenvolvimento altamente desestabilizador. Traz complexos desafios de segurança não apenas para os tomadores de decisão de cada nação, mas também para o futuro da humanidade.

A realidade hoje é que a inteligência artificial está nos levando em direção a um novo campo de batalha de guerra algorítmica que não tem limites nem fronteiras, pode ou não ter humanos envolvidos e será impossível de entender e talvez controlar em todo o ecossistema humano no ciberespaço, geoespaço e espaço. (CGS). Como resultado, a própria idéia do armamento da inteligência artificial, onde um sistema de armas que, uma vez ativado através do CGS, pode selecionar e envolver alvos humanos e não humanos sem uma intervenção adicional por um projetista ou operador humano, é causando grande medo.

O pensamento de qualquer máquina inteligente ou inteligência de máquina para ter a capacidade de realizar qualquer tarefa de guerra projetada sem qualquer envolvimento humano e intervenção – usando apenas a interação de seus sensores embutidos, programação de computadores e algoritmos no ambiente e ecossistema humano – é tornando-se uma realidade que não pode mais ser ignorado.

Armamento de Inteligência Artificial

À medida que a IA, aprendizado de máquina e aprendizado profundo evoluem mais e passam do conceito à comercialização, a rápida aceleração no poder de computação, memória, big data e comunicação de alta velocidade não está apenas criando frenesi de investimento, investimento e aplicativos, mas também intensificando a busca para chips de AI. este progresso rápido e desenvolvimento contínuo Significa que a inteligência artificial está a caminho de revolucionar a guerra e que, sem dúvida, as nações continuarão a desenvolver o sistema automatizado de armas que a IA possibilitará..

Quando as nações, individualmente e coletivamente, aceleram seus esforços para obter vantagem competitiva em ciência e tecnologia, o futuro armamento da IA ​​é inevitável. Consequentemente, há uma necessidade de visualizar como seria uma guerra algorítmica do amanhã, porque construir sistemas de armas autônomos é uma coisa, mas usá-los em guerra algorítmica com outras nações e contra outros humanos é outra.

Como os relatórios são já emergente De complexos sistemas algorítmicos que suportam cada vez mais aspectos da guerra contra CGS, a verdade é que a mercantilização da IA ​​é uma realidade agora. Como visto no ciberespaço, a guerra automatizada (cyberwarfare) já começou – onde todo mundo é um alvo. Então, o que vem a seguir, geo-guerra e guerra espacial? E quem e qual será o alvo?

O rápido desenvolvimento da armaização da IA ​​é evidente em toda a linha: navegando e utilizando naval não tripuladoaéreo, aéreo e terrestre, produzindo estimativas de danos colaterais, implantando sistemas de mísseis “disparar e esquecer” e usando sistemas estacionários para automatizar tudo, desde sistemas de pessoal e manutenção de equipamentos até a implantação de drones de vigilância, robôs e mais são todos exemplos. Então, quando os algoritmos estão apoiando mais e mais aspectos da guerra, isso nos leva a uma questão importante: quais usos da IA ​​na guerra de hoje e de amanhã devem ser permitidos, restritos e completamente proibidos?

Acredita-se que os sistemas de armas autônomas ofereçam oportunidades para reduzir os custos operacionais do sistema de armas – especificamente através de um uso mais eficiente da mão de obra – e provavelmente permitirão que os sistemas de armas alcancem maior velocidade, precisão, persistência, precisão, alcance e coordenação No campo de batalha do CGS, a necessidade de entender e avaliar as questões tecnológicas, legais, econômicas, sociais e de segurança ainda permanece.

Papel dos programadores e programação

Em meio a esses complexos desafios de segurança e ao mar de incógnitas que estão surgindo, o que permanece fundamental para a segurança e a proteção da raça humana é o papel dos programadores e da programação, juntamente com a integridade dos chips semicondutores. A razão por trás disso é que os programadores podem definir e determinar a natureza da AWS (pelo menos no começo) até que a IA comece a se programar.

No entanto, se e quando um programador que intencionalmente ou acidentalmente programar uma arma autônoma para operar em violação do Direito Internacional Humanitário (DIH) atual e futuro, como os humanos controlarão o armamento da IA? Além disso, como a AWS é centrada em software, onde a responsabilidade pelos erros e pela manipulação do projeto e do uso dos sistemas da AWS deve ser? Isso nos leva ao cerne da questão – quando e se um sistema autônomo mata, quem é responsável pelo assassinato, independentemente de ser justificado ou não?

Desafios da segurança cibernética

Em suma, os algoritmos não são de forma alguma seguros – nem são imunes a bugs, malware, preconceitos e manipulação. E, como o aprendizado de máquina usa máquinas para treinar outras máquinas, o que acontece se houver malware ou manipulação dos dados de treinamento? Embora os riscos de segurança estejam em toda parte, os dispositivos conectados aumentam a capacidade de violações de segurança cibernética de locais remotos e, como o código é opaco, a segurança é muito complexa. Assim, quando a IA entrar em guerra com outra IA (independentemente de ser para cibersegurança, geo-segurança ou espaço-segurança), os desafios contínuos de segurança cibernética adicionarão riscos monumentais ao futuro da humanidade e do ecossistema humano na CGS.

Embora pareça que sistemas de armas autônomos estão aqui para ficar, a questão que todos nós, individual e coletivamente, precisamos responder, será a inteligência artificial direcionar e determinar nossa estratégia para a sobrevivência e segurança humanas, ou iremos?

Reconhecendo essa realidade emergente, o Risk Group iniciou a tão necessária discussão sobre sistemas de armas autônomas com Markus Wagner, um autor publicado e professor associado de direito na Universidade de Wollongong, com sede na Austrália.

Divulgação: Risk Group LLC é minha empresa

O Grupo de Risco discute o Sistema e Lei de Armas Autônomas com Markus Wagner, um Autor Publicado e Professor Associado de Direito na Universidade de Wollongong, baseado na Austrália, em Análise de Risco.

Qual é o próximo?

À medida que as nações individualmente e coletivamente aceleram seus esforços para obter vantagem competitiva em ciência e tecnologia, o futuro armamento da IA ​​é inevitável. Como resultado, o posicionamento da AWS alteraria o próprio significado de ser humano e, de maneira alguma, definirá os fundamentos da segurança e o futuro da humanidade e da paz.

É importante entender e avaliar se a corrida armamentista autônoma não pode ser evitada, o que poderia dar errado. É hora de reconhecer o fato de que, simplesmente porque a tecnologia pode permitir o desenvolvimento bem-sucedido da AWS, isso não significa que deveríamos. Talvez não seja do interesse da humanidade munir a inteligência artificial! É hora de uma pausa.

">

A realidade do surgimento de sistemas de armas autônomasDepositphotos reforçada por CogWorld

Introdução

O desenvolvimento tecnológico tornou-se uma corrida de ratos. Na competição para liderar a corrida tecnológica emergente e o campo de batalha da guerra futurista, a inteligência artificial (IA) está rapidamente se tornando o centro do jogo de poder global. Como visto em muitas nações, o desenvolvimento do sistema de armas autônomo (AWS) está progredindo rapidamente, e esse aumento no armamento da inteligência artificial parece ter se tornado um desenvolvimento altamente desestabilizador. Traz complexos desafios de segurança não apenas para os tomadores de decisão de cada nação, mas também para o futuro da humanidade.

A realidade hoje é que a inteligência artificial está nos levando em direção a um novo campo de batalha de guerra algorítmica que não tem limites nem fronteiras, pode ou não ter humanos envolvidos e será impossível de entender e talvez controlar em todo o ecossistema humano no ciberespaço, geoespaço e espaço. (CGS). Como resultado, a própria idéia do armamento da inteligência artificial, onde um sistema de armas que, uma vez ativado através do CGS, pode selecionar e envolver alvos humanos e não humanos sem uma intervenção adicional por um projetista ou operador humano, é causando grande medo.

O pensamento de qualquer máquina inteligente ou inteligência de máquina para ter a capacidade de realizar qualquer tarefa de guerra projetada sem qualquer envolvimento humano e intervenção – usando apenas a interação de seus sensores embutidos, programação de computadores e algoritmos no ambiente e ecossistema humano – é tornando-se uma realidade que não pode mais ser ignorado.

Armamento de Inteligência Artificial

À medida que a IA, aprendizado de máquina e aprendizado profundo evoluem mais e passam do conceito à comercialização, a rápida aceleração no poder de computação, memória, big data e comunicação de alta velocidade não está apenas criando frenesi de investimento, investimento e aplicativos, mas também intensificando a busca para chips de AI. este progresso rápido e desenvolvimento contínuo Significa que a inteligência artificial está a caminho de revolucionar a guerra e que, sem dúvida, as nações continuarão a desenvolver o sistema automatizado de armas que a IA possibilitará..

Quando as nações, individualmente e coletivamente, aceleram seus esforços para obter vantagem competitiva em ciência e tecnologia, o futuro armamento da IA ​​é inevitável. Consequentemente, há uma necessidade de visualizar como seria uma guerra algorítmica do amanhã, porque construir sistemas de armas autônomos é uma coisa, mas usá-los em guerra algorítmica com outras nações e contra outros humanos é outra.

Como os relatórios são já emergente De complexos sistemas algorítmicos que suportam cada vez mais aspectos da guerra contra CGS, a verdade é que a mercantilização da IA ​​é uma realidade agora. Como visto no ciberespaço, a guerra automatizada (cyberwarfare) já começou – onde todo mundo é um alvo. Então, o que vem a seguir, geo-guerra e guerra espacial? E quem e qual será o alvo?

O rápido desenvolvimento da armaização da IA ​​é evidente em toda a linha: navegando e utilizando naval não tripuladoveículos aéreos e terrenos, produzindo estimativas de danos colaterais, implantando sistemas de mísseis “disparar e esquecer” e usando sistemas estacionários para automatizar tudo, desde sistemas de pessoal e manutenção de equipamentos até a implantação de drones de vigilância, robôs e mais são todos exemplos. Então, quando os algoritmos estão apoiando mais e mais aspectos da guerra, isso nos leva a uma questão importante: quais usos da IA ​​na guerra de hoje e de amanhã devem ser permitidos, restritos e completamente proibidos?

Acredita-se que os sistemas de armas autônomas ofereçam oportunidades para reduzir os custos operacionais do sistema de armas – especificamente através de um uso mais eficiente da mão de obra – e provavelmente permitirão que os sistemas de armas alcancem maior velocidade, precisão, persistência, precisão, alcance e coordenação No campo de batalha do CGS, a necessidade de entender e avaliar as questões tecnológicas, legais, econômicas, sociais e de segurança ainda permanece.

Papel dos programadores e programação

Em meio a esses complexos desafios de segurança e ao mar de incógnitas que estão surgindo, o que permanece fundamental para a segurança e a proteção da raça humana é o papel dos programadores e da programação, juntamente com a integridade dos chips semicondutores. A razão por trás disso é que os programadores podem definir e determinar a natureza da AWS (pelo menos no começo) até que a IA comece a se programar.

No entanto, se e quando um programador que intencionalmente ou acidentalmente programar uma arma autônoma para operar em violação do Direito Internacional Humanitário (DIH) atual e futuro, como os humanos controlarão o armamento da IA? Além disso, como a AWS é centrada em software, onde a responsabilidade pelos erros e pela manipulação do projeto e do uso dos sistemas da AWS deve ser? Isso nos leva ao cerne da questão – quando e se um sistema autônomo mata, quem é responsável pelo assassinato, independentemente de ser justificado ou não?

Desafios da segurança cibernética

Em suma, os algoritmos não são de forma alguma seguros – nem são imunes a bugs, malwares, preconceitos e manipulações. E, como o aprendizado de máquina usa máquinas para treinar outras máquinas, o que acontece se houver malware ou manipulação dos dados de treinamento? Embora os riscos de segurança estejam em toda parte, os dispositivos conectados aumentam a capacidade de violações de segurança cibernética de locais remotos e, como o código é opaco, a segurança é muito complexa. Assim, quando a IA entrar em guerra com outra IA (independentemente de ser para cibersegurança, geo-segurança ou espaço-segurança), os desafios contínuos de segurança cibernética adicionarão riscos monumentais ao futuro da humanidade e do ecossistema humano na CGS.

Embora pareça que sistemas de armas autônomos estão aqui para ficar, a questão que todos nós, individual e coletivamente, precisamos responder, será a inteligência artificial direcionar e determinar nossa estratégia para a sobrevivência e segurança humanas, ou iremos?

Reconhecendo essa realidade emergente, o Risk Group iniciou a tão necessária discussão sobre sistemas de armas autônomas com Markus Wagner, um autor publicado e professor associado de direito na Universidade de Wollongong, com sede na Austrália.

Divulgação: Risk Group LLC é minha empresa

O Grupo de Risco discute o Sistema e Lei de Armas Autônomas com Markus Wagner, um Autor Publicado e Professor Associado de Direito na Universidade de Wollongong, baseado na Austrália, em Análise de Risco.

Qual é o próximo?

À medida que as nações individualmente e coletivamente aceleram seus esforços para obter vantagem competitiva em ciência e tecnologia, o futuro armamento da IA ​​é inevitável. Como resultado, o posicionamento da AWS alteraria o próprio significado de ser humano e, em termos inequívocos, alteraria os fundamentos da segurança e o futuro da humanidade e da paz.

É importante entender e avaliar se a corrida armamentista autônoma não pode ser evitada, o que poderia dar errado. É hora de reconhecer o fato de que, simplesmente porque a tecnologia pode permitir o desenvolvimento bem-sucedido da AWS, isso não significa que deveríamos. Talvez não seja do interesse da humanidade munir a inteligência artificial! É hora de uma pausa.