União Europeia - Internationali Negotia

Transcrição

União Europeia - Internationali Negotia
Internationali Negotia
Bruno José Bergamaschi Kumer Reis
Débora Jacintho de Faria
União Europeia
Tecnologia e Sociedade
MODELO INTERNACIONAL DO BRASIL
Brasília - DF
2015
1 Histórico e Escopo do Comitê
A União Europeia (UE) é uma união política e econômica formada por 28
Estados-Membros. Os seis países fundadores da UE foram Alemanha, Bélgica, França,
Itália, Luxemburgo e Países Baixos e, inicialmente, foi chamada de Comunidade
Europeia do Carvão e do Aço. O objetivo inicial da Comunidade era assegurar uma paz
duradoura no continente, e começou a unir econômica e politicamente os países europeus.
Em 1957, o Tratado de Roma institui a Comunidade Econômica Europeia (CEE) ou
“Mercado Comum”.
Em janeiro de 1973, ingressam na UE Dinamarca, Irlanda e Reino Unido. Nesse
período, começam os investimentos no continente para fomentar a criação de empregos
e desenvolvimento de infraestrutura em regiões mais pobres. O Parlamento Europeu
amplia sua influência e, em 1979, os deputados passam a ser eleitos diretamente. Em
1981, a Grécia entra na União, e em 1986, Espanha e Portugal. Neste mesmo ano, é
assinado o Ato Único Europeu, que tem como objetivo minimizar os entraves ao livre
comércio na UE, criando assim o “Mercado Único”.
Na década de 1990, o “Mercado Único” é aprimorado com as “quatro liberdades”,
sendo elas: livre circulação de mercadorias, de serviços, de pessoas e de capitais. Em
1995, três Estados-Membros são incluídos na União, a Áustria, a Finlândia e a Suécia.
Nos anos 2000, quando as divisões políticas entre a Europa Ocidental e Oriental se tornam
ultrapassadas, dez novos países aderem à UE em 2004, Estónia, Letónia, Lituânia,
Polónia, República Checa, Hungria, Eslováquia, Eslovénia, Malta e Chipre. Em 2007,
mais dois países aderem, a Bulgária e a Romênia. Por fim, em 2013, entra o último
Estado-membro na UE, a Croácia.
A União Europeia tem um quadro institucional único, que é composto pelo
Conselho Europeu, que reúne chefes de Estado e de Governo da UE, e é responsável pela
definição das orientações e prioridades (mas sem poderes para adotar legislação); o
Parlamento Europeu, órgão legislativo; a Comissão Europeia, órgão executivo da UE,
responsável por propor a legislação europeia, monitorar o respeito pelos tratados e gerir
o dia-a-dia da União; e o Conselho da União Europeia, formado pelos Ministros dos
governos, responsável por negociar e adotar a legislação, em conjunto com o Parlamento
Europeu. Além disso, um dos órgãos da UE que representa o Judiciário é o Tribunal de
Justiça da União Europeia, que tem como função garantir que a legislação da UE seja
interpretada, aplicada e respeitada em todos os Estados-Membros.
O Parlamento Europeu é um dos principais órgãos da União Europeia. Os
eurodeputados são diretamente eleitos pelos cidadãos dos Estados-Membros de cinco em
cinco anos. O Parlamento tem três tipos principais de poderes: legislativos, de supervisão
e orçamentais. Primeiro, poderes legislativos, em que adota legislação, juntamente com o
Conselho da União Europeia, com base nas propostas da Comissão Europeia.
Com poderes de supervisão, o Parlamento, entre outras funções, exerce o controle
democrático de todas as instituições da UE; aprova a forma como o orçamento da UE é
gasto; examina as petições de cidadãos e abre inquéritos; debate a política monetária com
o Banco Central Europeu. Em relação aos poderes orçamentais, o Parlamento define o
orçamento da UE e aprova o quadro financeiro plurianual da UE.
O número de deputados por país é aproximadamente proporcional à população de
cada país, sendo o mínimo de 6 deputados por país e o máximo de 96. Os eurodeputados
estão agrupados por filiação política e não por nacionalidade. Cada deputado só pode
pertencer a um grupo político e há deputados que não estão em nenhum grupo, chamados
de “Não Inscritos”. Os grupos políticos são:








Grupo do Partido Popular Europeu (Democratas-Cristãos)
Grupo da Aliança Progressista dos Socialistas e Democratas no Parlamento
Europeu
Grupo dos Conservadores e Reformistas Europeus
Grupo da Aliança dos Democratas e Liberais pela Europa
Grupo Confederal da Esquerda Unitária Europeia/Esquerda Nórdica Verde
Grupo dos Verdes/Aliança Livre Europeia
Grupo Europa da Liberdade e da Democracia Direta
Grupo Europa das Nações e da Liberdade
2 Breve introdução ao tema
Iniciada na Inglaterra, em meados do século XVIII, a 1ª Revolução Industrial foi
um conjunto de mudanças tecnológicas que causaram um profundo impacto no processo
produtivo. A era da agricultura havia sido superada e, a partir daquele momento, cada vez
mais, o trabalho artesanal passou a ser substituído pelo uso das máquinas e,
consequentemente, a automação do processo de produção se tornaria cada vez mais
presente dentro da sociedade como um todo, abalando para sempre a forma como se
davam as relações de trabalho.
Em seguida, tivemos a 2ª Revolução Industrial, iniciada por volta de 1870, tendo
como berço os Estados Unidos da América. Foi responsável por grande parte do
desenvolvimento científico, técnico e de trabalho que ocorreram na Primeira e,
principalmente, na Segunda Guerra Mundial. Teve como sistema de produção o
Fordismo, termo criado por Henry Ford que caracteriza um método de produção que visa
à produção e ao consumo em massa, causando um conjunto de mudanças nos processos
de trabalho, sendo caracterizados por linhas de montagem e semi-automatização do
processo de produção.
E temos a 3ª Revolução Industrial, que é a grande responsável pelo estilo de vida
tecnológico que temos hoje e a mais relevante na problemática que iremos tratar dentro
deste comitê. Iniciou-se na década de 1970, tendo como base o uso e desenvolvimento de
alta tecnologia. Nesse período, o mundo conheceu inovações como a microeletrônica, a
informática, os robôs, a biotecnologia entre outras tecnologias dinamizadoras do processo
de produção.
A principal máquina desse período é o computador, uma máquina flexível,
composta por duas partes, o hardware (os componentes físicos da máquina) e o software
(os programas de computadores no geral, responsáveis por dar as instruções ao hardware).
O hardware e o software integram-se sob o comando de um chip, fazendo do computador
uma máquina diferente das demais. Um computador pode ser reprogramável e até mesmo
auto programável, basta que se altere o software que é executado na máquina. E é através
dessa máquina amplamente utilizada no mundo todo, para as mais variadas funções, que
surge o conceito-chave desse comitê, a inteligência artificial.
A inteligência artificial (IA) é a implementação de uma inteligência similar à
humana por meio de um software, ou algum outro mecanismo tecnológico. A que nos
interessa aqui é aquela implementada em máquinas com o propósito de torná-las um
agente inteligente, ou seja, um sistema que ao perceber seu ambiente, é capaz de tomar
atitudes que maximizam suas chances de sucesso em uma dada tarefa a ser cumprida.
O principal objetivo por trás da IA é conseguir fazer com que máquinas consigam
pensar como seres humanos ou que sejam tão inteligentes quanto o homem. Espera-se
que essas máquinas sejam capazes de adquirir habilidades humanas e substituir a
atividade humana em determinadas tarefas. Existem várias formas de se fazer isso.
Formas mais simples como, por exemplo, para um problema x, a resposta programada é
y, e formas mais complexas como a implementação de redes neurais, onde a máquina
tentar reproduzir o funcionamento de neurônios humanos, em que as informações são
transmitidas de uma célula a outra e se combinando com outros dados para se chegar a
uma única solução.
Existem vários segmentos no estudo de sistemas inteligentes, em que cada um se
dedica a um aspecto específico do comportamento humano. Para ilustrar, temos, por
exemplo, especialistas que estudam robôs e se preocupam com a parte motora deles,
enquanto outras áreas estudam a fala do ser humano para desenvolver máquinas que
possam se comunicar, entendendo o que é falado e o significado da fala.
O que dificulta a criação de uma máquina capaz de se assemelhar muito com um
ser humano é que todas as áreas de estudo da inteligência artificial são muito específicas
e requerem muita especialização no assunto, o que torna a tarefa de construir uma
máquina que reproduza o ser humano em sua totalidade quase impossível de ser realizada.
Por isso, é pouco provável que se desenvolvam máquinas que se tornem mais inteligentes
que o próprio ser humano, pois além de todos motivos supracitados, temos também o fato
de que o próprio ser humano não conhece a totalidade do próprio cérebro e está longe de
conhecer.
Existem diversas pesquisas que tem o objetivo de desenvolver uma máquina que
tenha capacidade de aprendizagem e assimilação de informações equivalente à do ser
humano, mas os esforços nesse sentido têm passado longe de ser bem-sucedidos. Prova
disso é que até hoje nenhuma máquina tenha conseguido passar pelo Teste de Turing, no
qual um julgador irá entrar em uma conversa com outro ser humano, em linguagem
natural, e com uma máquina projetada para produzir respostas indistinguíveis de outro
ser humano. Caso o juiz não seja capaz de distinguir a máquina do humano, a máquina
passa no teste.
Tudo isso pode parecer que beira a ficção e está muito distante da nossa realidade,
a inteligência artificial já está presente no cotidiano da população em geral. Por exemplo,
no desenvolvimento de jogos que utilizam a IA para criar videogames cada vez mais
complexos, ou máquinas fotográficas, que fazem foco automático dependendo do que
você quer fotografar ou que disparam ao encontrar um sorriso. Até mesmo em nossos
celulares, nos corretores ortográficos, é necessário um sistema inteligente para detectar
que há um erro de sintaxe em uma frase e oferecer uma solução.
3 Problemática
Alguns cientistas de renome, como por exemplo Stephen Hawking, acreditam que
o completo desenvolvimento da inteligência artificial pode significar o fim da raça
humana. Porém, este não é o assunto no qual iremos tratar aqui. A problemática que será
abordada é algo factível e que, por alguns Estados-membros deste comitê, já foi inclusive
testado.
Essa problemática pode ser introduzida com uma questão ética e moral famosa
chamada de "The Trolley Problem" (ou O Dilema do Bonde), aplicada em uma tecnologia
já presente em nossas vidas em algumas partes do mundo: O seu carro que é auto-
tripulado, seria programado para matar você caso isso significasse salvar a vida de mais
pessoas estranhas?
Não assumiremos aqui um lado para a resolução desse problema, pois a resposta
para ele pode variar dependendo da crença da pessoa a quem o problema é dado. Caso
seja uma pessoa que acredite no utilitarismo, provavelmente tomaria um lado, caso
acreditasse na Deontologia, possivelmente, tomaria outro. Mas o que nos interessa aqui
são as variações desse problema.
E se a pessoa que estivesse na frente do seu carro fossem cinco criminosos
perigosos, a sua ação ainda seria a mesma? E se a pessoa que estivesse na rua fosse seu
único filho, você jogaria seu carro contra a parede para salvá-lo? A questão é, se nem
seres humanos racionais com consciência do mundo a sua volta e conhecimento sobre
ele, conseguem decidir a ação a ser tomada de imediato, será que máquinas programadas
para dirigir sozinhas, que não possuem esse conhecimento, conseguiriam tomar a melhor
ação em uma situação como essa?
Com essa questão ética levantada, iremos agora aplicar esse mesmo contexto para
o tema do qual viemos tratar aqui, a automatização de equipamentos militares. Em outono
do ano passado, um bombardeiro B-1 da Força Aérea lançou um míssil experimental.
Inicialmente, os pilotos a bordo do avião direcionaram o míssil, mas na metade do
percurso até seu destino, ele rompeu a comunicação com seus operadores. Sozinho, sem
nenhuma supervisão humana, o míssil decidiu qual dos três navios atacar, baixando pouco
acima da superfície do mar e atingindo um cargueiro não tripulado de 79 metros.
Do ponto de vista militar, o teste foi considerado um sucesso. Mas o projeto desse
novo míssil e de outras armas que podem escolher alvos por conta própria tem provocado
um alvoroço no mundo científico e gerado a crítica de diversos analistas, alegando que
existe um limiar ético que está sendo cruzado.
Os críticos alegam que os fabricantes de armas estão dando os primeiros passos
para o desenvolvimento de máquinas de guerra robóticas que fazem uso de software, e
não de instrução humana, para decidir quem irão atacar e matar. A velocidade com que
essas armas fazem seus cálculos e a rapidez com que se movem afetam tanto a capacidade
do ser humano de controlar a máquina e determinar seus comandos e rotas, como
dificultam ou até mesmo impossibilitam a defesa de seu alvo.
Alguns cientistas temem ainda que o desenvolvimento de tais tecnologias possa
vir tornar as guerras a serem mais admissíveis do que são hoje, e até mesmo mais
prováveis, visto que uma das principais motivações da automatização do armamento é a
redução de mortes por parte dos operadores dos equipamentos militares.
Pessoas de grande importância no mundo tecnológico e científico abraçam essa
causa, como o físico Stephen Hawking, o empreendedor Elon Musk e o co-fundador da
Apple Steve Wozniak. Na última Conferência Internacional de Inteligência Artificial,
ocorrida em Buenos Aires, em julho desse ano, todos acima juntos de milhares de
cientistas e especialistas em inteligência artificial assinaram a carta aberta "Armas
Autônomas: uma Carta Aberta de Pesquisadores em Robótica & AI", que será transcrita
abaixo
3.1 Armas Autônomas: uma Carta Aberta de Pesquisadores de Robótica e
Inteligência Artificial (IA)
Armas autônomas selecionam e engajam em alvos sem intervenção
humana. Elas podem incluir, por exemplo, helicópteros quadrimotores
armados que podem procurar e eliminar pessoas que atendem a certos critérios
pré-definidos, mas não incluem mísseis de cruzeiro ou drones pilotados
remotamente, nos quais são humanos que decidem as decisões de alvo.
Muitos argumentos foram feitos contra e favor de armas autônomas.
Por exemplo, a substituição de soldados humanos por máquinas é boa por
reduzir as casualidades feitas em situações de risco, mas ruim por diminuir a
hesitação de ir para a batalha. A questão chave para a humanidade hoje é se
devemos iniciar uma corrida armamentista global de IA ou prevenir ela de
começar. Se qualquer poder militar maior avançar no desenvolvimento de
armas de IA, uma corrida armamentista global é inevitável, e o fim desta
trajetória tecnológica é óbvia: armas autônomas transformar-se-ão nos
Kalashnikovs de amanhã. Diferente de armas nucleares, elas não necessitam
de matérias-primas caras ou de difícil obtenção; então, elas se tornarão
onipresentes e baratas para qualquer poder militar significante produzir em
grande escala. Será apenas uma questão de tempo até que elas apareçam no
mercado negro e nas mãos de terroristas, ditadores desejando um melhor
controle da população, chefes militares querendo perpetuar uma limpeza
étnica, etc. Armas autônomas são ideais para tarefas de assassinatos,
desestabilização de nações, subjugamento de populações e extermínio seletivo
de um determinado grupo étnico. Nós, portanto, acreditamos que a corrida
armamentista militar de IA não será benéfica para a humanidade. Existem
muitos caminhos nos quais IA podem fazer campos de batalha mais seguros
para humanos, especialmente civis, sem a criação de novas ferramentas para
matar pessoas.
Assim como a maioria de químicos e biólogos não tem nenhum
interesse na construção de armas químicas ou biológicas, a maioria de
pesquisadores de IA não tem interesse na construção de armas com IA - e não
desejam que outros denigram seu campo construindo-as, criando,
potencialmente, uma repercussão pública maior contra IA que prejudicará seus
futuros benefícios sociais. De fato, químicos e biólogos têm apoiado
amplamente acordos internacionais que, com sucesso, proibiram armas
químicas e biológicas, assim como a maioria de físicos apoiou os tratados de
banimento de armas nucleares usadas no espaço e armas laser que causam
cegueira.
Em resumo, nós acreditamos que IA tem grande potencial para
beneficiar a humanidade em muitos aspectos, e que o objetivo deste campo de
estudos deveria ser esse. Começar uma corrida armamentista militar é uma má
ideia e deve ser prevenida a partir de um banimento de armas autônomas
ofensivas que necessitam de um controle humano ínfimo. (FUTURE OF LIFE
INSTITUTE, 2015)
Como podemos ver, existem diversos medos, entre eles temos que esse tipo de
arma venha a cair em mãos erradas e se vire contra a própria população, a extinção de
grupos étnicos por pessoas que tenham esse tipo de interesse, e até mesmo desestabilizar
toda uma nação, entre diversas outras coisas horríveis que possam vir a acontecer. Como
mencionado na própria carta no segundo parágrafo: “A questão chave para a humanidade
hoje é se devemos iniciar uma corrida armamentista global de IA ou prevenir ela de
começar” (FUTURE OF LIFE INSTITUTE, 2015).
Por outro lado, existe um grupo significativo de pesquisadores que acredita que o
banimento desse tipo de arma não seja a solução. Alegam que, se observarmos na história
da regulamentação da tecnologia global, fazer declarações como a da carta aberta é
comum, agora quando colocamos na prática, e percebe-se o que significa pedir por coisas
desse tipo, o resultado nem sempre é o esperado. Pode ser muito difícil dizer o que se
deve banir sobre essa tecnologia e como fazer esse banimento perdurar.
Um exemplo que pode-se dar em relação a isso foi quando durante um período de
50 anos o governo dos Estados Unidos classificou softwares de segurança como armas,
graças ao papel que programas de criptografia tiveram na Segunda Guerra Mundial. Isso
significou que a exportação desse tipo de software era extremamente restrita. Essa
condição de proibitiva se foi por volta dos anos 90 e os softwares de segurança vieram a
ter uma importância muito maior do que seu uso militar. O banimento na época fez com
que novas indústrias e melhorias relativas a tecnologia de segurança online não se
desenvolvessem e atrasou algo que viria ser fundamental no mundo em que vivemos hoje,
como por exemplo as compras que fazemos via internet.
Nesse caso, o problema em restringir a disponibilidade do software é que isso
afetou todos seus potenciais usos, inclusive aqueles que seriam descobertos no futuro e
que não poderiam ter sido previstos pelos cientistas do presente. Os cientistas que se
colocavam contra o banimento da tecnologia armamentista alegam ainda que os milhares
de cientistas que assinaram essa carta para proibir o uso militar da inteligência artificial
podem ter, sem perceber que o fizeram, assinado uma carta que cria restrições da própria
capacidade que eles teriam futuramente de compartilhar esse tipo de software com
colaboradores internacionais, e até mesmo impedi-los de desenvolver futuras tecnologias.
A tensão existente entre o uso duplo desse tipo de tecnologia, tanto para o bem
quanto para o mal, torna a discussão da utilização dessa tecnologia complexa, uma vez
que é possível utilizá-la de uma forma extremamente ampla e de formas imprevisíveis.
Outra questão é o uso de drones para fins civis. Atualmente, tem-se utilizado
drones em infraestruturas críticas, na proteção civil, na gestão de catástrofes naturais, em
operações de busca e salvamento, na proteção ambiental, na aplicação da lei e vigilância,
no jornalismo e em atividades comerciais e recreativas, além de usos nos setores da
agricultura, energia e transporte.
Os Estados estão intensificando sua utilização de drones e, por outro lado,
indústrias estão também interessadas em fabricar, vender e utilizar essa tecnologia. Os
drones estão começando a ser disponibilizados no mercado a preços acessíveis, o que
aumenta exponencialmente o acesso a esse tipo de equipamento por particulares. Esse
desenvolvimento na indústria de drones tem impactos positivos, como potencial para
gerar crescimento e emprego, mas também pode ocasionar impactos negativos,
especialmente quando utilizados de forma ilegal, perigosa ou irresponsável.
Diante disso, é necessário desenvolver uma regulamentação adequada para a
produção, comercialização e utilização de drones e outras tecnologias de inteligência
artificial, e o Parlamento Europeu está empenhado em liderar tal processo. A
regulamentação é indispensável para assegurar a proteção dos cidadãos, garantindo
seguros de responsabilidade civil, apoiando emergência e o desenvolvimento do mercado
e promovendo o setor europeu e sua competitividade.
4 Referências
FUTURE OF LIFE INSTITUTE. Autonomous Weapons: an Open Letter from AI &
Robotics Researchers. 2015. Disponível em:
<http://futureoflife.org/AI/open_letter_autonomous_weapons>. Acesso em: 15 out.
2015.
MARZOCCHI, Ottavio. Implicações da utilização civil de "drones" para a
privacidade e a proteção de dados. Bruxelas: Departamento Temático C: Direitos dos
Cidadãos e Assuntos Constitucionais, 2015. Disponível em:
<http://www.europarl.europa.eu/RegData/etudes/IDAN/2015/519221/IPOL_IDA(2015)
519221_PT.pdf>. Acesso em: 07 nov. 2015.
ISABEL MARQUES DA SILVA. União Europeia quer criar um quadro legal sobre
drones. Disponível em: <http://pt.euronews.com/2015/03/02/uniao-europeia-quer-criarum-quadro-legal-sobre-drones/>. Acesso em: 07 nov. 2015.
Conselho da União Europeia. Formações do Conselho. Disponível em:
<http://www.consilium.europa.eu/pt/council-eu/configurations/>. Acesso em: 07 nov.
2015.
União Europeia. Conselho da União Europeia. Disponível em:
<http://europa.eu/about-eu/institutions-bodies/council-eu/index_pt.htm>. Acesso em: 07
nov. 2015.
Parlamento Europeu. Deputados por Estado-Membro e Grupo Político. Disponível
em: <http://www.europarl.europa.eu/meps/pt/crosstable.html>. Acesso em: 07 nov.
2015.
União Europeia. Tratado sobre o funcionamento da União Europeia. Disponível em:
<http://eur-lex.europa.eu/legal-
content/PT/TXT/PDF/?uri=CELEX:12012E/TXT&from=pt>. Acesso em: 07 nov.
2015.
Parlamento Europeu. Organização e funcionamento. Disponível em:
<http://www.europarl.europa.eu/aboutparliament/pt/20150201PVL00010/Organizaçãoe-funcionamento>. Acesso em: 07 nov. 2015.
União Europeia. Parlamento Europeu. Disponível em: <http://europa.eu/about-
eu/institutions-bodies/european-parliament/index_pt.htm>. Acesso em: 07 nov. 2015.
União Europeia. Instituições e outros organismos da UE. Disponível em:
<http://europa.eu/about-eu/institutions-bodies/index_pt.htm>. Acesso em: 07 nov. 2015.
União Europeia. A história da União Europeia. Disponível em:
<http://europa.eu/about-eu/eu-history/index_pt.htm>. Acesso em: 07 nov. 2015.
RUSSELL, Stuart. Robotics: Ethics of artificial intelligence. 2015. Disponível em:
<http://www.nature.com/news/robotics-ethics-of-artificial-intelligence-1.17611>.
Acesso em: 07 nov. 2015.
WELSH, Sean. Machines with guns: debating the future of autonomous weapons
systems. 2015. Disponível em: <http://theconversation.com/machines-with-guns-
debating-the-future-of-autonomous-weapons-systems-39795>. Acesso em: 07 nov. 2015.
LEE, Dave. Killer robots: Tech experts warn against AI arms race. 2015. Disponível em:
<http://www.bbc.com/news/technology-33686581>. Acesso em: 07 nov. 2015.
KNIGHT, Will. Military Robots: Armed, but How Dangerous? 2015. Disponível em:
<http://www.technologyreview.com/news/539876/military-robots-armed-but-howdangerous/>. Acesso em: 07 nov. 2015.
GRAY, Richard. Artificial Intelligence is as dangerous as nuclear weapons: AI
pioneer warns smart computers could doom mankind. 2015. Disponível em:
<http://www.dailymail.co.uk/sciencetech/article-3165356/Artificial-Intelligencedangerous-NUCLEAR-WEAPONS-AI-pioneer-warns-smart-computers-doommankind.html>. Acesso em: 07 nov. 2015.
SAUER, Frank. Banning Lethal Autonomous Weapon Systems (LAWS): The way
forward. 2014. Disponível em: <http://icrac.net/2014/06/banning-lethal-autonomousweapon-systems-laws-the-way-forward/>. Acesso em: 07 nov. 2015.
JEFFRIES, Adrianne. Only five countries actually want to ban killer robots. 2014.
Disponível em: <http://www.theverge.com/2014/5/16/5724538/what-happened-at-theun-killer-robot-debate>. Acesso em: 07 nov. 2015.
CAMPAIGN TO STOP KILLER ROBOTS. Consensus killer robots must be
addressed. 2013. Disponível em: <http://www.stopkillerrobots.org/2013/05/nations-todebate-killer-robots-at-un/>. Acesso em: 07 nov. 2015.
EURONEWS. IA: Stephen Hawking e Elon Musk contra o desenvolvimento de armas
inteligentes. 2015. Disponível em: <http://pt.euronews.com/2015/07/28/ia-stephenhawking-e-elon-musk-contra-o-desenvolvimento-de-armas-inteligentes/>. Acesso em:
07 nov. 2015.
CUÉ, Carlos E.; REBOSSIO, A.. Cientistas contra robôs armados. 2015. Disponível
em:
<http://brasil.elpais.com/brasil/2015/07/28/internacional/1438078885_287962.html>.
Acesso em: 07 nov. 2015.
MUSGRAVE, Zach; ROBERTS, Bryan W.. Humans, Not Robots, Are the Real
Reason
Artificial
Intelligence
Is
Scary.
2015.
Disponível
em:
<http://www.theatlantic.com/technology/archive/2015/08/humans-not-robots-are-thereal-reason-artificial-intelligence-is-scary/400994/>. Acesso em: 07 nov. 2015.
BLAND, Jessica; STILGOE, Jack. A ban on autonomous weapons is easier said than
done.
2015.
Disponível
em:
<http://www.theguardian.com/science/political-
science/2015/jul/31/artificial-intelligence-ban-autonomous-weapons-easier-said-thandone>. Acesso em: 07 nov. 2015.

Documentos relacionados