Os robôs estão se tornando cada dia mais capazes e independentes dos humanos. É preciso desenvolver regras para administrá-los. Mas talvez isso seja impossível.
No clássico filme de ficção científica “2001 – Uma Odisseia no Espaço”, HAL, o supercomputador da astronave (*), enfrenta um dilema. Suas instruções requerem, tanto que ele cumpra a missão da nave — investigar um artefato próximo a Júpiter –, quanto manter o verdadeiro propósito da missão em segredo. Para solucionar a contradição, ele resolve matar a tripulação. Conforme os robôs se tornam mais autônomos, a ideia de máquinas controladas por computadores enfrentando decisões éticas está saindo do reino da ficção científica e adentrando o mundo real. A sociedade precisa encontrar modos de assegurar que elas estejam mais bem equipadas que HAL para fazer julgamentos morais.
(*) Na foto-reprodução do filme “2001 – uma Odisseia no Espaço”, o computador HAL diz ao comandante da astronave: “Dave… Eu receio que eu não possa deixar você fazer isso…”
De modo nem um pouco surpreendente, a tecnologia militar está na vanguarda da marcha em direção a máquinas autônomas. A sua evolução está produzindo uma variedade extraordinária de espécies. À medida que elas se tornam mais inteligentes e comuns, é inevitável que as máquinas autônomas acabem por fazer mais decisões de vida ou morte em situações imprevisíveis, desse modo assumindo – ou parecendo assumir – independência moral. Sistemas de armas atualmente contam com a participação de humanos na cadeia de comando, mas à medida que se tornarem mais sofisticados, será possível fazer com que as máquinas sigam ordens de modo autônomo.
Quando isso acontecer, elas serão confrontadas com dilemas éticos. Um veículo aéreo não tripulado deveria atirar em uma casa que abriga um suspeito, mas que também está servindo de abrigo a civis?
Um carro sem motorista deveria dar uma guinada para evitar atropelar pedestres se isso significar bater em outros veículos ou pôr a vida de seus ocupantes em risco?
Um robô envolvido em resgates em zonas de desastre deveria dizer a verdade às pessoas se isso pudesse desencadear pânico? Tais questões fazem parte da “ética das máquinas”, que pretende dar às máquinas a habilidade de tomar tais decisões de modo apropriado, ou, em outras palavras, distinguir o certo do errado. E o que é certo e errado nessas situações?
As diretrizes mais conhecidas da ética robô são as “três leis da robótica” cunhadas por Isaac Asimov, um escritor de ficção científica, em 1942 (foto). As leis determinam que os robôs: 1. Protejam os humanos. 2. Obedeçam às ordens deles. 3. Preservem-se, nesta ordem. Mas essas leis não são úteis nem viáveis, no mundo real. Robôs de combate podem precisar violar a primeira delas. Regular o desenvolvimento e uso dos robôs autônomos requererá um arcabouço muito mais elaborado e não se sabe se possível. A evolução da estupidez
Desde o seu aparecimento sobre a Terra, os seres humanos vivem em guerra uns contra os outros. Na pré-história, matavam-se a socos, pontapés, pedras e cacetes. Depois vieram os arcos e flechas, as espadas e catapultas. Com a invenção da pólvora, apressaram-se em aperfeiçoas seus métodos de assassinato em massa, com revólveres, fuzis, metralhadoras, bombas, granadas e canhões.
Agora, com essa coisa de qualidade duvidosa que chamam de “moderna tecnologia”, os humanos estão novamente usando a imaginação para desenvolver geringonças com um poder de destruição nunca visto antes. Como sempre, os Estados Unidos estão na vanguarda da arte de matar e destruir. Ou seja, as armas evoluíram, mas a mente violenta continua a mesma do tempo das cavernas. Será que a criatividade voltada para o mal pode ser chamada realmente de “criatividade”?
Robôs-armas
Armamentos que podem ser disparados à distância não são nenhuma novidade. Mas, cada vez mais, os robôs passam a ser uma realidade nos campos de batalha – ainda que com desempenhos tímidos. Geralmente eles são utilizados para desarmar bombas e não para fazer parte dos combates. Um grupo de robôs estadunidenses foi enviado à guerra do Iraque, mas os robôs nunca chegaram a disparar um tiro, porque o exército não tinha certeza que os robôs não iriam surtar e atirar contra suas próprias tropas. O robô sistema Maars, por exemplo, teve três exemplares enviados ao Iraque em 2009. Ele é um robô que pode ser equipado com quatro lançadores de granadas e uma arma que pode carregar uma munição de até 700 tiros de grosso calibre. Além disso, o equipamento pode liberar bombas de gás lacrimogêneo ou de fumaça. Tem gente que chama isso de “desenvolvimento tecnológico”…
Aviões robôs
Antes, nós dissemos que os robôs não foram utilizados no Iraque porque podiam não ser 100% seguros. Pois os aviões robôs, controlados remotamente, têm exatamente este problema, mas já são utilizados em larga escala porque têm um custo menor que os jatos supersônicos que eram utilizados. Os drones de modelo Predator conseguem levar até dois mísseis Hellfire (a tradução é “Fogo do Inferno…”), enquanto o avião maior, chamado de Reaper, consegue carregar quatro mísseis e duas bombas de até 250 quilos cada. O armamento não é 100% seguro, pois já causou acidentes que mataram civis paquistaneses. Mas será que existe mesmo armamento 100% seguro?
Cada “avanço” um problema
A chamada “tecnologia” tem sido a marca registrada da história da humanidade, desde a invenção da roda até a do colisor de hádrons (**). Mas a verdade é que cada novo avanço gerou novos e graves problemas. Não será diferente com as máquinas autônomas.
Quanto mais cedo a questão da independência moral que elas suscitam for respondida, mais fácil será para a humanidade gozar dos benefícios que elas talvez possam trazer. Isso se a questão puder ser respondida e se a “tecnologia” trouxer realmente benefícios. (**) O Grande Colisor de Hádrons (em Inglês, Large Hadron Collider – LHC) é o maior acelerador de partículas e o de maior energia existente do mundo. Seu principal objetivo é obter dados sobre colisões de feixes de partículas atômicas. Na física de partículas, os hádrons são partículas compostas, formadas por um estado ligado de quarks. Os hádrons mais conhecidos são os prótons e os nêutrons. O laboratório localiza-se em um túnel de 27 km de circunferência e a 175 metros abaixo do nível do solo, na fronteira franco-suíça, próximo a Genebra, Suíça.
Fonte: Você Sabia
No clássico filme de ficção científica “2001 – Uma Odisseia no Espaço”, HAL, o supercomputador da astronave (*), enfrenta um dilema. Suas instruções requerem, tanto que ele cumpra a missão da nave — investigar um artefato próximo a Júpiter –, quanto manter o verdadeiro propósito da missão em segredo. Para solucionar a contradição, ele resolve matar a tripulação. Conforme os robôs se tornam mais autônomos, a ideia de máquinas controladas por computadores enfrentando decisões éticas está saindo do reino da ficção científica e adentrando o mundo real. A sociedade precisa encontrar modos de assegurar que elas estejam mais bem equipadas que HAL para fazer julgamentos morais.
(*) Na foto-reprodução do filme “2001 – uma Odisseia no Espaço”, o computador HAL diz ao comandante da astronave: “Dave… Eu receio que eu não possa deixar você fazer isso…”
De modo nem um pouco surpreendente, a tecnologia militar está na vanguarda da marcha em direção a máquinas autônomas. A sua evolução está produzindo uma variedade extraordinária de espécies. À medida que elas se tornam mais inteligentes e comuns, é inevitável que as máquinas autônomas acabem por fazer mais decisões de vida ou morte em situações imprevisíveis, desse modo assumindo – ou parecendo assumir – independência moral. Sistemas de armas atualmente contam com a participação de humanos na cadeia de comando, mas à medida que se tornarem mais sofisticados, será possível fazer com que as máquinas sigam ordens de modo autônomo.
Quando isso acontecer, elas serão confrontadas com dilemas éticos. Um veículo aéreo não tripulado deveria atirar em uma casa que abriga um suspeito, mas que também está servindo de abrigo a civis?
Um carro sem motorista deveria dar uma guinada para evitar atropelar pedestres se isso significar bater em outros veículos ou pôr a vida de seus ocupantes em risco?
Um robô envolvido em resgates em zonas de desastre deveria dizer a verdade às pessoas se isso pudesse desencadear pânico? Tais questões fazem parte da “ética das máquinas”, que pretende dar às máquinas a habilidade de tomar tais decisões de modo apropriado, ou, em outras palavras, distinguir o certo do errado. E o que é certo e errado nessas situações?
As diretrizes mais conhecidas da ética robô são as “três leis da robótica” cunhadas por Isaac Asimov, um escritor de ficção científica, em 1942 (foto). As leis determinam que os robôs: 1. Protejam os humanos. 2. Obedeçam às ordens deles. 3. Preservem-se, nesta ordem. Mas essas leis não são úteis nem viáveis, no mundo real. Robôs de combate podem precisar violar a primeira delas. Regular o desenvolvimento e uso dos robôs autônomos requererá um arcabouço muito mais elaborado e não se sabe se possível. A evolução da estupidez
Desde o seu aparecimento sobre a Terra, os seres humanos vivem em guerra uns contra os outros. Na pré-história, matavam-se a socos, pontapés, pedras e cacetes. Depois vieram os arcos e flechas, as espadas e catapultas. Com a invenção da pólvora, apressaram-se em aperfeiçoas seus métodos de assassinato em massa, com revólveres, fuzis, metralhadoras, bombas, granadas e canhões.
Agora, com essa coisa de qualidade duvidosa que chamam de “moderna tecnologia”, os humanos estão novamente usando a imaginação para desenvolver geringonças com um poder de destruição nunca visto antes. Como sempre, os Estados Unidos estão na vanguarda da arte de matar e destruir. Ou seja, as armas evoluíram, mas a mente violenta continua a mesma do tempo das cavernas. Será que a criatividade voltada para o mal pode ser chamada realmente de “criatividade”?
Robôs-armas
Armamentos que podem ser disparados à distância não são nenhuma novidade. Mas, cada vez mais, os robôs passam a ser uma realidade nos campos de batalha – ainda que com desempenhos tímidos. Geralmente eles são utilizados para desarmar bombas e não para fazer parte dos combates. Um grupo de robôs estadunidenses foi enviado à guerra do Iraque, mas os robôs nunca chegaram a disparar um tiro, porque o exército não tinha certeza que os robôs não iriam surtar e atirar contra suas próprias tropas. O robô sistema Maars, por exemplo, teve três exemplares enviados ao Iraque em 2009. Ele é um robô que pode ser equipado com quatro lançadores de granadas e uma arma que pode carregar uma munição de até 700 tiros de grosso calibre. Além disso, o equipamento pode liberar bombas de gás lacrimogêneo ou de fumaça. Tem gente que chama isso de “desenvolvimento tecnológico”…
Aviões robôs
Antes, nós dissemos que os robôs não foram utilizados no Iraque porque podiam não ser 100% seguros. Pois os aviões robôs, controlados remotamente, têm exatamente este problema, mas já são utilizados em larga escala porque têm um custo menor que os jatos supersônicos que eram utilizados. Os drones de modelo Predator conseguem levar até dois mísseis Hellfire (a tradução é “Fogo do Inferno…”), enquanto o avião maior, chamado de Reaper, consegue carregar quatro mísseis e duas bombas de até 250 quilos cada. O armamento não é 100% seguro, pois já causou acidentes que mataram civis paquistaneses. Mas será que existe mesmo armamento 100% seguro?
Cada “avanço” um problema
A chamada “tecnologia” tem sido a marca registrada da história da humanidade, desde a invenção da roda até a do colisor de hádrons (**). Mas a verdade é que cada novo avanço gerou novos e graves problemas. Não será diferente com as máquinas autônomas.
Quanto mais cedo a questão da independência moral que elas suscitam for respondida, mais fácil será para a humanidade gozar dos benefícios que elas talvez possam trazer. Isso se a questão puder ser respondida e se a “tecnologia” trouxer realmente benefícios. (**) O Grande Colisor de Hádrons (em Inglês, Large Hadron Collider – LHC) é o maior acelerador de partículas e o de maior energia existente do mundo. Seu principal objetivo é obter dados sobre colisões de feixes de partículas atômicas. Na física de partículas, os hádrons são partículas compostas, formadas por um estado ligado de quarks. Os hádrons mais conhecidos são os prótons e os nêutrons. O laboratório localiza-se em um túnel de 27 km de circunferência e a 175 metros abaixo do nível do solo, na fronteira franco-suíça, próximo a Genebra, Suíça.
Fonte: Você Sabia
Nenhum comentário:
Postar um comentário
Fique a vontade para comentar sobre o Blog e obrigado por sua visita.