Um código de ética da IA, também chamado de plataforma de valores da IA, é uma declaração de política que define formalmente o papel da inteligência artificial como se aplica ao desenvolvimento contínuo da raça humana. O propósito de um código de ética da IA é fornecer orientação aos interessados quando confrontados com uma decisão ética em relação ao uso da inteligência artificial.
Isaac Asimov, o escritor de ficção científica, previu os perigos potenciais dos agentes autônomos de IA muito antes de seu desenvolvimento e criou As Três Leis da Robótica como um meio de limitar esses riscos. No código de ética de Asimov, a primeira lei proíbe os robôs de prejudicar ativamente os seres humanos ou de permitir que os danos venham para os seres humanos, recusando-se a agir. A segunda lei ordena que os robôs obedeçam aos humanos, a menos que as ordens não estejam de acordo com a primeira lei. A terceira lei ordena que os robôs se protejam, na medida em que isso esteja de acordo com as duas primeiras leis.
Embora os desenvolvedores ainda estejam nos estágios iniciais da adoção da IA, é importante que as empresas adotem abordagens éticas e responsáveis ao criar sistemas de IA. Para isso, um instituto sem fins lucrativos fundado pelo cosmólogo do MIT Max Tegmark, o co-fundador do Skype Jaan Tallinn e o cientista pesquisador do DeepMind Viktoriya Krakovnahas -- trabalhou com pesquisadores e desenvolvedores de IA para estabelecer um conjunto de princípios orientadores que agora são chamados de Princípios de IA de Asilomar. Este código de ética da IA exige que:
- O objetivo da pesquisa de IA deve ser criar não inteligência indesejada, mas inteligência benéfica.
- Investimentos em IA devem ser acompanhados por financiamento para pesquisa que garanta seu uso benéfico.
- Se um sistema de IA causa danos, deve ser possível determinar o porquê.
- Qualquer envolvimento de um sistema autônomo na tomada de decisão judicial deve fornecer uma explicação satisfatória e auditável por uma autoridade humana competente.
- Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.
- Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e formuladores de IA.
- As equipes que desenvolvem sistemas de IA devem cooperar ativamente para evitar cortes nos padrões de segurança.
- Os sistemas de IA devem ser seguros e protegidos durante toda a sua vida operacional, e verificável, quando aplicável e viável.
- Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuseuse, and actions, with a responsibility and opportunity to shape those implications.
- Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.
- Os sistemas de IA devem ser projetados e operados de forma a serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.
- As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de IA para analisar e utilizar esses dados.
- A aplicação da IA aos dados pessoais não deve restringir irrazoavelmente a liberdade real ou percebida das pessoas.
- As tecnologias de IA devem beneficiar e capacitar o maior número possível de pessoas.
- A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
- Os humanos devem escolher como e se delegar decisões aos sistemas de IA, para alcançar os objetivos escolhidos pelo ser humano.>li> O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.
- Risks posed by AI systems, especially catastrophic or existential risks, must be subject to planning and mitigation efforts commensurate with their expected impact.
- An arms race in lethal autonomous weapons should be avoided.