Fonte da imagem: Elizabeth Frantz/For The Washington Post

Funcionários da OpenAI acusaram a empresa de impedir publicidade sobre os riscos da IA

Publicidade

Um grupo de denunciantes da OpenAI apresentou uma queixa à Comissão de Valores Mobiliários dos EUA (SEC), acusando a organização de proibir ilegalmente os funcionários de alertar os reguladores sobre os graves riscos que a inteligência artificial pode representar para a humanidade.

Publicidade

Fonte da imagem: Elizabeth Frantz/For The Washington Post

A OpenAI forçou os funcionários a assinar contratos de trabalho excessivamente restritivos, acordos de indenização e acordos de não divulgação, informou o Washington Post, citando fontes anônimas. Esses documentos poderiam levar a punições para os trabalhadores se eles contatassem de forma independente os reguladores federais sobre as atividades da OpenAI.

Publicidade

O contrato de trabalho continha implicitamente as seguintes linhas: “Não queremos funcionários conversando com reguladores federais”. disse um dos denunciantes, falando sob condição de anonimato por medo de retaliação. “Não creio que as empresas de IA possam criar tecnologias que sejam seguras e de interesse público se se protegerem do escrutínio e da dissidência”, – ele adicionou.

No entanto, Hannah Wong, porta-voz da OpenAI, respondeu às acusações dizendo que a política de denúncias da empresa protege os direitos dos funcionários de divulgar informações e que a empresa acolhe discussões sobre o impacto da tecnologia na sociedade. “Acreditamos que uma discussão séria sobre esta tecnologia é crítica e já fizemos alterações em nosso processo de rescisão para remover cláusulas de não divulgação.” – ela disse.

Por sua vez, o advogado denunciante Stephen Kohn sublinhou que tais acordos ameaçam os funcionários com processos criminais se denunciarem quaisquer violações às autoridades, e que isto contradiz as leis e regulamentos federais que protegem os denunciantes. Ele também observou que o acordo não continha exceções para a divulgação de certas informações sobre violações da lei, o que também constitui uma violação dos regulamentos da SEC.

A carta do denunciante surge em meio a preocupações crescentes de que a OpenAI, originalmente fundada como uma organização sem fins lucrativos com uma missão altruísta, esteja agora colocando o lucro antes da segurança ao criar sua tecnologia. O modelo mais recente do ChatGPT AI foi lançado antes que a empresa concluísse seu próprio processo de revisão de segurança, devido ao desejo da administração de cumprir um prazo.

Os funcionários anônimos da OpenAI pediram à SEC que conduzisse uma investigação completa e tomasse medidas contra a OpenAI, incluindo a imposição de multas para cada contrato impróprio e a exigência de que todos os funcionários antigos e atuais fossem notificados sobre seu direito de denunciar de forma confidencial e anônima quaisquer violações da lei para o segundo.

O advogado de São Francisco, Chris Baker, que recentemente ganhou uma ação judicial contra o Google por causa de um contrato de trabalho e um acordo de US$ 27 milhões para seus funcionários, disse que a luta contra os NDAs no Vale do Silício já dura há muito tempo. . No entanto “os empregadores entendem que às vezes o dano causado pelo vazamento de informações é muito maior do que pelos processos judiciais e estão dispostos a assumir o risco”, disse Baker.

Se você notar um erro, selecione-o com o mouse e pressione CTRL+ENTER.

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *