União Europeia - Internationali Negotia
Transcrição
União Europeia - Internationali Negotia
Internationali Negotia Bruno José Bergamaschi Kumer Reis Débora Jacintho de Faria União Europeia Tecnologia e Sociedade MODELO INTERNACIONAL DO BRASIL Brasília - DF 2015 1 Histórico e Escopo do Comitê A União Europeia (UE) é uma união política e econômica formada por 28 Estados-Membros. Os seis países fundadores da UE foram Alemanha, Bélgica, França, Itália, Luxemburgo e Países Baixos e, inicialmente, foi chamada de Comunidade Europeia do Carvão e do Aço. O objetivo inicial da Comunidade era assegurar uma paz duradoura no continente, e começou a unir econômica e politicamente os países europeus. Em 1957, o Tratado de Roma institui a Comunidade Econômica Europeia (CEE) ou “Mercado Comum”. Em janeiro de 1973, ingressam na UE Dinamarca, Irlanda e Reino Unido. Nesse período, começam os investimentos no continente para fomentar a criação de empregos e desenvolvimento de infraestrutura em regiões mais pobres. O Parlamento Europeu amplia sua influência e, em 1979, os deputados passam a ser eleitos diretamente. Em 1981, a Grécia entra na União, e em 1986, Espanha e Portugal. Neste mesmo ano, é assinado o Ato Único Europeu, que tem como objetivo minimizar os entraves ao livre comércio na UE, criando assim o “Mercado Único”. Na década de 1990, o “Mercado Único” é aprimorado com as “quatro liberdades”, sendo elas: livre circulação de mercadorias, de serviços, de pessoas e de capitais. Em 1995, três Estados-Membros são incluídos na União, a Áustria, a Finlândia e a Suécia. Nos anos 2000, quando as divisões políticas entre a Europa Ocidental e Oriental se tornam ultrapassadas, dez novos países aderem à UE em 2004, Estónia, Letónia, Lituânia, Polónia, República Checa, Hungria, Eslováquia, Eslovénia, Malta e Chipre. Em 2007, mais dois países aderem, a Bulgária e a Romênia. Por fim, em 2013, entra o último Estado-membro na UE, a Croácia. A União Europeia tem um quadro institucional único, que é composto pelo Conselho Europeu, que reúne chefes de Estado e de Governo da UE, e é responsável pela definição das orientações e prioridades (mas sem poderes para adotar legislação); o Parlamento Europeu, órgão legislativo; a Comissão Europeia, órgão executivo da UE, responsável por propor a legislação europeia, monitorar o respeito pelos tratados e gerir o dia-a-dia da União; e o Conselho da União Europeia, formado pelos Ministros dos governos, responsável por negociar e adotar a legislação, em conjunto com o Parlamento Europeu. Além disso, um dos órgãos da UE que representa o Judiciário é o Tribunal de Justiça da União Europeia, que tem como função garantir que a legislação da UE seja interpretada, aplicada e respeitada em todos os Estados-Membros. O Parlamento Europeu é um dos principais órgãos da União Europeia. Os eurodeputados são diretamente eleitos pelos cidadãos dos Estados-Membros de cinco em cinco anos. O Parlamento tem três tipos principais de poderes: legislativos, de supervisão e orçamentais. Primeiro, poderes legislativos, em que adota legislação, juntamente com o Conselho da União Europeia, com base nas propostas da Comissão Europeia. Com poderes de supervisão, o Parlamento, entre outras funções, exerce o controle democrático de todas as instituições da UE; aprova a forma como o orçamento da UE é gasto; examina as petições de cidadãos e abre inquéritos; debate a política monetária com o Banco Central Europeu. Em relação aos poderes orçamentais, o Parlamento define o orçamento da UE e aprova o quadro financeiro plurianual da UE. O número de deputados por país é aproximadamente proporcional à população de cada país, sendo o mínimo de 6 deputados por país e o máximo de 96. Os eurodeputados estão agrupados por filiação política e não por nacionalidade. Cada deputado só pode pertencer a um grupo político e há deputados que não estão em nenhum grupo, chamados de “Não Inscritos”. Os grupos políticos são: Grupo do Partido Popular Europeu (Democratas-Cristãos) Grupo da Aliança Progressista dos Socialistas e Democratas no Parlamento Europeu Grupo dos Conservadores e Reformistas Europeus Grupo da Aliança dos Democratas e Liberais pela Europa Grupo Confederal da Esquerda Unitária Europeia/Esquerda Nórdica Verde Grupo dos Verdes/Aliança Livre Europeia Grupo Europa da Liberdade e da Democracia Direta Grupo Europa das Nações e da Liberdade 2 Breve introdução ao tema Iniciada na Inglaterra, em meados do século XVIII, a 1ª Revolução Industrial foi um conjunto de mudanças tecnológicas que causaram um profundo impacto no processo produtivo. A era da agricultura havia sido superada e, a partir daquele momento, cada vez mais, o trabalho artesanal passou a ser substituído pelo uso das máquinas e, consequentemente, a automação do processo de produção se tornaria cada vez mais presente dentro da sociedade como um todo, abalando para sempre a forma como se davam as relações de trabalho. Em seguida, tivemos a 2ª Revolução Industrial, iniciada por volta de 1870, tendo como berço os Estados Unidos da América. Foi responsável por grande parte do desenvolvimento científico, técnico e de trabalho que ocorreram na Primeira e, principalmente, na Segunda Guerra Mundial. Teve como sistema de produção o Fordismo, termo criado por Henry Ford que caracteriza um método de produção que visa à produção e ao consumo em massa, causando um conjunto de mudanças nos processos de trabalho, sendo caracterizados por linhas de montagem e semi-automatização do processo de produção. E temos a 3ª Revolução Industrial, que é a grande responsável pelo estilo de vida tecnológico que temos hoje e a mais relevante na problemática que iremos tratar dentro deste comitê. Iniciou-se na década de 1970, tendo como base o uso e desenvolvimento de alta tecnologia. Nesse período, o mundo conheceu inovações como a microeletrônica, a informática, os robôs, a biotecnologia entre outras tecnologias dinamizadoras do processo de produção. A principal máquina desse período é o computador, uma máquina flexível, composta por duas partes, o hardware (os componentes físicos da máquina) e o software (os programas de computadores no geral, responsáveis por dar as instruções ao hardware). O hardware e o software integram-se sob o comando de um chip, fazendo do computador uma máquina diferente das demais. Um computador pode ser reprogramável e até mesmo auto programável, basta que se altere o software que é executado na máquina. E é através dessa máquina amplamente utilizada no mundo todo, para as mais variadas funções, que surge o conceito-chave desse comitê, a inteligência artificial. A inteligência artificial (IA) é a implementação de uma inteligência similar à humana por meio de um software, ou algum outro mecanismo tecnológico. A que nos interessa aqui é aquela implementada em máquinas com o propósito de torná-las um agente inteligente, ou seja, um sistema que ao perceber seu ambiente, é capaz de tomar atitudes que maximizam suas chances de sucesso em uma dada tarefa a ser cumprida. O principal objetivo por trás da IA é conseguir fazer com que máquinas consigam pensar como seres humanos ou que sejam tão inteligentes quanto o homem. Espera-se que essas máquinas sejam capazes de adquirir habilidades humanas e substituir a atividade humana em determinadas tarefas. Existem várias formas de se fazer isso. Formas mais simples como, por exemplo, para um problema x, a resposta programada é y, e formas mais complexas como a implementação de redes neurais, onde a máquina tentar reproduzir o funcionamento de neurônios humanos, em que as informações são transmitidas de uma célula a outra e se combinando com outros dados para se chegar a uma única solução. Existem vários segmentos no estudo de sistemas inteligentes, em que cada um se dedica a um aspecto específico do comportamento humano. Para ilustrar, temos, por exemplo, especialistas que estudam robôs e se preocupam com a parte motora deles, enquanto outras áreas estudam a fala do ser humano para desenvolver máquinas que possam se comunicar, entendendo o que é falado e o significado da fala. O que dificulta a criação de uma máquina capaz de se assemelhar muito com um ser humano é que todas as áreas de estudo da inteligência artificial são muito específicas e requerem muita especialização no assunto, o que torna a tarefa de construir uma máquina que reproduza o ser humano em sua totalidade quase impossível de ser realizada. Por isso, é pouco provável que se desenvolvam máquinas que se tornem mais inteligentes que o próprio ser humano, pois além de todos motivos supracitados, temos também o fato de que o próprio ser humano não conhece a totalidade do próprio cérebro e está longe de conhecer. Existem diversas pesquisas que tem o objetivo de desenvolver uma máquina que tenha capacidade de aprendizagem e assimilação de informações equivalente à do ser humano, mas os esforços nesse sentido têm passado longe de ser bem-sucedidos. Prova disso é que até hoje nenhuma máquina tenha conseguido passar pelo Teste de Turing, no qual um julgador irá entrar em uma conversa com outro ser humano, em linguagem natural, e com uma máquina projetada para produzir respostas indistinguíveis de outro ser humano. Caso o juiz não seja capaz de distinguir a máquina do humano, a máquina passa no teste. Tudo isso pode parecer que beira a ficção e está muito distante da nossa realidade, a inteligência artificial já está presente no cotidiano da população em geral. Por exemplo, no desenvolvimento de jogos que utilizam a IA para criar videogames cada vez mais complexos, ou máquinas fotográficas, que fazem foco automático dependendo do que você quer fotografar ou que disparam ao encontrar um sorriso. Até mesmo em nossos celulares, nos corretores ortográficos, é necessário um sistema inteligente para detectar que há um erro de sintaxe em uma frase e oferecer uma solução. 3 Problemática Alguns cientistas de renome, como por exemplo Stephen Hawking, acreditam que o completo desenvolvimento da inteligência artificial pode significar o fim da raça humana. Porém, este não é o assunto no qual iremos tratar aqui. A problemática que será abordada é algo factível e que, por alguns Estados-membros deste comitê, já foi inclusive testado. Essa problemática pode ser introduzida com uma questão ética e moral famosa chamada de "The Trolley Problem" (ou O Dilema do Bonde), aplicada em uma tecnologia já presente em nossas vidas em algumas partes do mundo: O seu carro que é auto- tripulado, seria programado para matar você caso isso significasse salvar a vida de mais pessoas estranhas? Não assumiremos aqui um lado para a resolução desse problema, pois a resposta para ele pode variar dependendo da crença da pessoa a quem o problema é dado. Caso seja uma pessoa que acredite no utilitarismo, provavelmente tomaria um lado, caso acreditasse na Deontologia, possivelmente, tomaria outro. Mas o que nos interessa aqui são as variações desse problema. E se a pessoa que estivesse na frente do seu carro fossem cinco criminosos perigosos, a sua ação ainda seria a mesma? E se a pessoa que estivesse na rua fosse seu único filho, você jogaria seu carro contra a parede para salvá-lo? A questão é, se nem seres humanos racionais com consciência do mundo a sua volta e conhecimento sobre ele, conseguem decidir a ação a ser tomada de imediato, será que máquinas programadas para dirigir sozinhas, que não possuem esse conhecimento, conseguiriam tomar a melhor ação em uma situação como essa? Com essa questão ética levantada, iremos agora aplicar esse mesmo contexto para o tema do qual viemos tratar aqui, a automatização de equipamentos militares. Em outono do ano passado, um bombardeiro B-1 da Força Aérea lançou um míssil experimental. Inicialmente, os pilotos a bordo do avião direcionaram o míssil, mas na metade do percurso até seu destino, ele rompeu a comunicação com seus operadores. Sozinho, sem nenhuma supervisão humana, o míssil decidiu qual dos três navios atacar, baixando pouco acima da superfície do mar e atingindo um cargueiro não tripulado de 79 metros. Do ponto de vista militar, o teste foi considerado um sucesso. Mas o projeto desse novo míssil e de outras armas que podem escolher alvos por conta própria tem provocado um alvoroço no mundo científico e gerado a crítica de diversos analistas, alegando que existe um limiar ético que está sendo cruzado. Os críticos alegam que os fabricantes de armas estão dando os primeiros passos para o desenvolvimento de máquinas de guerra robóticas que fazem uso de software, e não de instrução humana, para decidir quem irão atacar e matar. A velocidade com que essas armas fazem seus cálculos e a rapidez com que se movem afetam tanto a capacidade do ser humano de controlar a máquina e determinar seus comandos e rotas, como dificultam ou até mesmo impossibilitam a defesa de seu alvo. Alguns cientistas temem ainda que o desenvolvimento de tais tecnologias possa vir tornar as guerras a serem mais admissíveis do que são hoje, e até mesmo mais prováveis, visto que uma das principais motivações da automatização do armamento é a redução de mortes por parte dos operadores dos equipamentos militares. Pessoas de grande importância no mundo tecnológico e científico abraçam essa causa, como o físico Stephen Hawking, o empreendedor Elon Musk e o co-fundador da Apple Steve Wozniak. Na última Conferência Internacional de Inteligência Artificial, ocorrida em Buenos Aires, em julho desse ano, todos acima juntos de milhares de cientistas e especialistas em inteligência artificial assinaram a carta aberta "Armas Autônomas: uma Carta Aberta de Pesquisadores em Robótica & AI", que será transcrita abaixo 3.1 Armas Autônomas: uma Carta Aberta de Pesquisadores de Robótica e Inteligência Artificial (IA) Armas autônomas selecionam e engajam em alvos sem intervenção humana. Elas podem incluir, por exemplo, helicópteros quadrimotores armados que podem procurar e eliminar pessoas que atendem a certos critérios pré-definidos, mas não incluem mísseis de cruzeiro ou drones pilotados remotamente, nos quais são humanos que decidem as decisões de alvo. Muitos argumentos foram feitos contra e favor de armas autônomas. Por exemplo, a substituição de soldados humanos por máquinas é boa por reduzir as casualidades feitas em situações de risco, mas ruim por diminuir a hesitação de ir para a batalha. A questão chave para a humanidade hoje é se devemos iniciar uma corrida armamentista global de IA ou prevenir ela de começar. Se qualquer poder militar maior avançar no desenvolvimento de armas de IA, uma corrida armamentista global é inevitável, e o fim desta trajetória tecnológica é óbvia: armas autônomas transformar-se-ão nos Kalashnikovs de amanhã. Diferente de armas nucleares, elas não necessitam de matérias-primas caras ou de difícil obtenção; então, elas se tornarão onipresentes e baratas para qualquer poder militar significante produzir em grande escala. Será apenas uma questão de tempo até que elas apareçam no mercado negro e nas mãos de terroristas, ditadores desejando um melhor controle da população, chefes militares querendo perpetuar uma limpeza étnica, etc. Armas autônomas são ideais para tarefas de assassinatos, desestabilização de nações, subjugamento de populações e extermínio seletivo de um determinado grupo étnico. Nós, portanto, acreditamos que a corrida armamentista militar de IA não será benéfica para a humanidade. Existem muitos caminhos nos quais IA podem fazer campos de batalha mais seguros para humanos, especialmente civis, sem a criação de novas ferramentas para matar pessoas. Assim como a maioria de químicos e biólogos não tem nenhum interesse na construção de armas químicas ou biológicas, a maioria de pesquisadores de IA não tem interesse na construção de armas com IA - e não desejam que outros denigram seu campo construindo-as, criando, potencialmente, uma repercussão pública maior contra IA que prejudicará seus futuros benefícios sociais. De fato, químicos e biólogos têm apoiado amplamente acordos internacionais que, com sucesso, proibiram armas químicas e biológicas, assim como a maioria de físicos apoiou os tratados de banimento de armas nucleares usadas no espaço e armas laser que causam cegueira. Em resumo, nós acreditamos que IA tem grande potencial para beneficiar a humanidade em muitos aspectos, e que o objetivo deste campo de estudos deveria ser esse. Começar uma corrida armamentista militar é uma má ideia e deve ser prevenida a partir de um banimento de armas autônomas ofensivas que necessitam de um controle humano ínfimo. (FUTURE OF LIFE INSTITUTE, 2015) Como podemos ver, existem diversos medos, entre eles temos que esse tipo de arma venha a cair em mãos erradas e se vire contra a própria população, a extinção de grupos étnicos por pessoas que tenham esse tipo de interesse, e até mesmo desestabilizar toda uma nação, entre diversas outras coisas horríveis que possam vir a acontecer. Como mencionado na própria carta no segundo parágrafo: “A questão chave para a humanidade hoje é se devemos iniciar uma corrida armamentista global de IA ou prevenir ela de começar” (FUTURE OF LIFE INSTITUTE, 2015). Por outro lado, existe um grupo significativo de pesquisadores que acredita que o banimento desse tipo de arma não seja a solução. Alegam que, se observarmos na história da regulamentação da tecnologia global, fazer declarações como a da carta aberta é comum, agora quando colocamos na prática, e percebe-se o que significa pedir por coisas desse tipo, o resultado nem sempre é o esperado. Pode ser muito difícil dizer o que se deve banir sobre essa tecnologia e como fazer esse banimento perdurar. Um exemplo que pode-se dar em relação a isso foi quando durante um período de 50 anos o governo dos Estados Unidos classificou softwares de segurança como armas, graças ao papel que programas de criptografia tiveram na Segunda Guerra Mundial. Isso significou que a exportação desse tipo de software era extremamente restrita. Essa condição de proibitiva se foi por volta dos anos 90 e os softwares de segurança vieram a ter uma importância muito maior do que seu uso militar. O banimento na época fez com que novas indústrias e melhorias relativas a tecnologia de segurança online não se desenvolvessem e atrasou algo que viria ser fundamental no mundo em que vivemos hoje, como por exemplo as compras que fazemos via internet. Nesse caso, o problema em restringir a disponibilidade do software é que isso afetou todos seus potenciais usos, inclusive aqueles que seriam descobertos no futuro e que não poderiam ter sido previstos pelos cientistas do presente. Os cientistas que se colocavam contra o banimento da tecnologia armamentista alegam ainda que os milhares de cientistas que assinaram essa carta para proibir o uso militar da inteligência artificial podem ter, sem perceber que o fizeram, assinado uma carta que cria restrições da própria capacidade que eles teriam futuramente de compartilhar esse tipo de software com colaboradores internacionais, e até mesmo impedi-los de desenvolver futuras tecnologias. A tensão existente entre o uso duplo desse tipo de tecnologia, tanto para o bem quanto para o mal, torna a discussão da utilização dessa tecnologia complexa, uma vez que é possível utilizá-la de uma forma extremamente ampla e de formas imprevisíveis. Outra questão é o uso de drones para fins civis. Atualmente, tem-se utilizado drones em infraestruturas críticas, na proteção civil, na gestão de catástrofes naturais, em operações de busca e salvamento, na proteção ambiental, na aplicação da lei e vigilância, no jornalismo e em atividades comerciais e recreativas, além de usos nos setores da agricultura, energia e transporte. Os Estados estão intensificando sua utilização de drones e, por outro lado, indústrias estão também interessadas em fabricar, vender e utilizar essa tecnologia. Os drones estão começando a ser disponibilizados no mercado a preços acessíveis, o que aumenta exponencialmente o acesso a esse tipo de equipamento por particulares. Esse desenvolvimento na indústria de drones tem impactos positivos, como potencial para gerar crescimento e emprego, mas também pode ocasionar impactos negativos, especialmente quando utilizados de forma ilegal, perigosa ou irresponsável. Diante disso, é necessário desenvolver uma regulamentação adequada para a produção, comercialização e utilização de drones e outras tecnologias de inteligência artificial, e o Parlamento Europeu está empenhado em liderar tal processo. A regulamentação é indispensável para assegurar a proteção dos cidadãos, garantindo seguros de responsabilidade civil, apoiando emergência e o desenvolvimento do mercado e promovendo o setor europeu e sua competitividade. 4 Referências FUTURE OF LIFE INSTITUTE. Autonomous Weapons: an Open Letter from AI & Robotics Researchers. 2015. Disponível em: <http://futureoflife.org/AI/open_letter_autonomous_weapons>. Acesso em: 15 out. 2015. MARZOCCHI, Ottavio. Implicações da utilização civil de "drones" para a privacidade e a proteção de dados. Bruxelas: Departamento Temático C: Direitos dos Cidadãos e Assuntos Constitucionais, 2015. Disponível em: <http://www.europarl.europa.eu/RegData/etudes/IDAN/2015/519221/IPOL_IDA(2015) 519221_PT.pdf>. Acesso em: 07 nov. 2015. ISABEL MARQUES DA SILVA. União Europeia quer criar um quadro legal sobre drones. Disponível em: <http://pt.euronews.com/2015/03/02/uniao-europeia-quer-criarum-quadro-legal-sobre-drones/>. Acesso em: 07 nov. 2015. Conselho da União Europeia. Formações do Conselho. Disponível em: <http://www.consilium.europa.eu/pt/council-eu/configurations/>. Acesso em: 07 nov. 2015. União Europeia. Conselho da União Europeia. Disponível em: <http://europa.eu/about-eu/institutions-bodies/council-eu/index_pt.htm>. Acesso em: 07 nov. 2015. Parlamento Europeu. Deputados por Estado-Membro e Grupo Político. Disponível em: <http://www.europarl.europa.eu/meps/pt/crosstable.html>. Acesso em: 07 nov. 2015. União Europeia. Tratado sobre o funcionamento da União Europeia. Disponível em: <http://eur-lex.europa.eu/legal- content/PT/TXT/PDF/?uri=CELEX:12012E/TXT&from=pt>. Acesso em: 07 nov. 2015. Parlamento Europeu. Organização e funcionamento. Disponível em: <http://www.europarl.europa.eu/aboutparliament/pt/20150201PVL00010/Organizaçãoe-funcionamento>. Acesso em: 07 nov. 2015. União Europeia. Parlamento Europeu. Disponível em: <http://europa.eu/about- eu/institutions-bodies/european-parliament/index_pt.htm>. Acesso em: 07 nov. 2015. União Europeia. Instituições e outros organismos da UE. Disponível em: <http://europa.eu/about-eu/institutions-bodies/index_pt.htm>. Acesso em: 07 nov. 2015. União Europeia. A história da União Europeia. Disponível em: <http://europa.eu/about-eu/eu-history/index_pt.htm>. Acesso em: 07 nov. 2015. RUSSELL, Stuart. Robotics: Ethics of artificial intelligence. 2015. Disponível em: <http://www.nature.com/news/robotics-ethics-of-artificial-intelligence-1.17611>. Acesso em: 07 nov. 2015. WELSH, Sean. Machines with guns: debating the future of autonomous weapons systems. 2015. Disponível em: <http://theconversation.com/machines-with-guns- debating-the-future-of-autonomous-weapons-systems-39795>. Acesso em: 07 nov. 2015. LEE, Dave. Killer robots: Tech experts warn against AI arms race. 2015. Disponível em: <http://www.bbc.com/news/technology-33686581>. Acesso em: 07 nov. 2015. KNIGHT, Will. Military Robots: Armed, but How Dangerous? 2015. Disponível em: <http://www.technologyreview.com/news/539876/military-robots-armed-but-howdangerous/>. Acesso em: 07 nov. 2015. GRAY, Richard. Artificial Intelligence is as dangerous as nuclear weapons: AI pioneer warns smart computers could doom mankind. 2015. Disponível em: <http://www.dailymail.co.uk/sciencetech/article-3165356/Artificial-Intelligencedangerous-NUCLEAR-WEAPONS-AI-pioneer-warns-smart-computers-doommankind.html>. Acesso em: 07 nov. 2015. SAUER, Frank. Banning Lethal Autonomous Weapon Systems (LAWS): The way forward. 2014. Disponível em: <http://icrac.net/2014/06/banning-lethal-autonomousweapon-systems-laws-the-way-forward/>. Acesso em: 07 nov. 2015. JEFFRIES, Adrianne. Only five countries actually want to ban killer robots. 2014. Disponível em: <http://www.theverge.com/2014/5/16/5724538/what-happened-at-theun-killer-robot-debate>. Acesso em: 07 nov. 2015. CAMPAIGN TO STOP KILLER ROBOTS. Consensus killer robots must be addressed. 2013. Disponível em: <http://www.stopkillerrobots.org/2013/05/nations-todebate-killer-robots-at-un/>. Acesso em: 07 nov. 2015. EURONEWS. IA: Stephen Hawking e Elon Musk contra o desenvolvimento de armas inteligentes. 2015. Disponível em: <http://pt.euronews.com/2015/07/28/ia-stephenhawking-e-elon-musk-contra-o-desenvolvimento-de-armas-inteligentes/>. Acesso em: 07 nov. 2015. CUÉ, Carlos E.; REBOSSIO, A.. Cientistas contra robôs armados. 2015. Disponível em: <http://brasil.elpais.com/brasil/2015/07/28/internacional/1438078885_287962.html>. Acesso em: 07 nov. 2015. MUSGRAVE, Zach; ROBERTS, Bryan W.. Humans, Not Robots, Are the Real Reason Artificial Intelligence Is Scary. 2015. Disponível em: <http://www.theatlantic.com/technology/archive/2015/08/humans-not-robots-are-thereal-reason-artificial-intelligence-is-scary/400994/>. Acesso em: 07 nov. 2015. BLAND, Jessica; STILGOE, Jack. A ban on autonomous weapons is easier said than done. 2015. Disponível em: <http://www.theguardian.com/science/political- science/2015/jul/31/artificial-intelligence-ban-autonomous-weapons-easier-said-thandone>. Acesso em: 07 nov. 2015.