Grandes empresas de tecnologia, incluindo Microsoft, Amazonase OpenAI se uniram em um acordo internacional histórico sobre segurança de inteligência artificial na Cúpula de Segurança de IA de Seul, na terça-feira.
À luz do acordo, empresas de vários países, incluindo os EUA, a China, o Canadá, o Reino Unido, a França, a Coreia do Sul e os Emirados Árabes Unidos, assumirão compromissos voluntários para garantir o desenvolvimento seguro dos seus modelos de IA mais avançados.
Nos casos em que ainda não o fizeram, os criadores de modelos de IA concordaram em publicar quadros de segurança que descrevem como irão medir os desafios dos seus modelos de fronteira, tais como a prevenção da utilização indevida da tecnologia por maus intervenientes.
Estas estruturas incluirão “linhas vermelhas” para as empresas de tecnologia que definem os tipos de riscos associados aos sistemas de IA de fronteira, que seriam considerados “intoleráveis”. Esses riscos incluem, entre outros, ataques cibernéticos automatizados e a ameaça de armas biológicas.
Para responder a estas circunstâncias extremas, as empresas afirmaram que planeiam implementar um “interruptor de eliminação” que interromperia o desenvolvimento dos seus modelos de IA se não conseguirem garantir a mitigação destes riscos.
“É a primeira vez no mundo que tantas empresas líderes de IA de tantas partes diferentes do globo concordam com os mesmos compromissos em matéria de segurança da IA”, disse Rishi Sunak, primeiro-ministro do Reino Unido, em comunicado na terça-feira.
“Esses compromissos garantem que as principais empresas de IA do mundo fornecerão transparência e responsabilidade em seus planos para desenvolver IA segura”, acrescentou.
O pacto de terça-feira amplia um conjunto anterior de compromissos assumidos por empresas envolvidas no desenvolvimento de software de IA generativo em novembro passado.
As empresas concordaram em receber informações sobre estes limiares de “atores de confiança”, incluindo os seus governos nacionais, conforme apropriado, antes de divulgá-los antes da próxima cimeira de IA planeada – a Cimeira de Ação de IA em França – no início de 2025.
Os compromissos acordados na terça-feira aplicam-se apenas aos chamados modelos de fronteira. Este termo refere-se à tecnologia por trás de sistemas generativos de IA, como a família GPT de grandes modelos de linguagem da OpenAI, que alimenta o popular chatbot ChatGPT AI.
Desde que o ChatGPT foi apresentado ao mundo pela primeira vez em novembro de 2022, reguladores e líderes tecnológicos estão cada vez mais preocupados com os riscos que cercam os sistemas avançados de IA capazes de gerar texto e conteúdo visual iguais ou melhores que os humanos.
A União Europeia tem procurado reprimir o desenvolvimento desenfreado da IA com a criação da sua Lei da IA, que foi aprovada pelo Conselho da UE na terça-feira.
No entanto, o Reino Unido não propôs leis formais para a IA, optando em vez disso por uma abordagem “leve” à regulamentação da IA, que implica que os reguladores apliquem as leis existentes à tecnologia.
O governo disse recentemente que iria considerar legislar sobre modelos de fronteiras no futuro, mas não se comprometeu com um calendário para a introdução de leis formais.