Elon Musk e Stephen Hawking Estabelecem normas de segurança para os perigos da Inteligência Artificial

Inteligência Artificial

O Físico Stephen Hawking em conjunto com o Empresário Elon Musk dono da SpaceX, preocupados com o avanço da Inteligência Artificial em computadores e em robôs, definiram juntos uma listra de 23 princípios que os desenvolvedores de softwares e robôs com inteligência, devem seguir para evitar que a Inteligência Artificial seja um perigo para a humanidade.

Preocupados com os avanços da computação, Elon Musk já havia afirmado em 2014 que a Inteligência Artificial pode ser tão perigosa quanto guerras atômicas. Na ocasião ele chegou a doar 1 bilhão de dólares a um projeto chamando OpenAI, que pesquisa o desenvolvimento de inteligência amigável.

As normas foram divididas em 3 partes, sendo:

1-Pesquisa
Neste grupo de normas, a regra principal é que haja interação entre os  laboratórios desenvolvedores e compartilhamento de informações.

2 – Ética
Todas as máquinas devem ser seguras, homologadas por autoridades humanas, respeitando os direitos humanos e a diversidade cultural.

3 – Valores
São questões mais filosóficas como, a forma que as máquinas pensantes serão utilizadas pelas empresas. E a capacidade dos próprios robôs se auto replicarem.

Veja a lista completa contendo todos os princípios definidos pelos autores e pesquisadores do projeto.

AI Principles