Crise de Governança da OpenAI: Reflexões e Lições a partir da Perspectiva do DAO
Os recentes tumultos internos da OpenAI provocaram uma profunda reflexão sobre o seu modelo de governação. Há quem defenda que, se a OpenAI adotasse a forma de uma organização autónoma descentralizada (DAO), talvez pudesse evitar a ocorrência desta crise. Esta visão não é infundada, mas baseia-se nas semelhanças entre a OpenAI e a DAO em certos aspectos.
Como uma instituição sem fins lucrativos dedicada ao desenvolvimento de inteligência artificial geral segura (AGI) e à partilha dos seus resultados com toda a humanidade, a missão da OpenAI alinha-se com a de muitos DAOs que criam bens públicos. No entanto, a dificuldade atual da OpenAI não decorre da sua estrutura organizacional, mas sim da ambiguidade e irracionalidade das regras de governança.
Por exemplo, o conselho da OpenAI, como o órgão de decisão suprema, teve seus membros reduzidos de 9 para 6, mas não conseguiu se recompor a tempo. Isso significa que apenas 3 pessoas podem decidir o destino de toda a instituição. Mais preocupante ainda é que decisões significativas, como a substituição do CEO Sam Altman, foram apressadamente tomadas sem uma discussão adequada entre todos os diretores, ignorando as demandas de muitos stakeholders.
Mesmo empresas listadas com fins lucrativos precisam introduzir diretores independentes para aumentar a transparência da governança e representar melhor os interesses dos pequenos acionistas e do público. Para uma instituição tão importante quanto a OpenAI, que está relacionada ao desenvolvimento de tecnologias fundamentais, à segurança social e até ao destino da humanidade, o atual sistema de diretores externos claramente não conseguiu desempenhar o seu papel adequado.
Inspirar-se na filosofia de governança do DAO para projetar uma estrutura de governança mais sólida, transparente e inclusiva para a OpenAI é, sem dúvida, uma direção que vale a pena explorar. Isso não apenas requer a introdução de mais forças de equilíbrio, como representantes dos funcionários, mas também a criação de mecanismos de decisão mais eficazes.
Vale a pena notar que, quando o DAO foi inicialmente proposto, seu núcleo estava em construir um sistema autossuficiente através de código, minimizando a intervenção humana. No entanto, os DAOs na realidade muitas vezes não conseguem realizar completamente esse ideal, sendo forçados a aceitar um certo grau de governança humana. Isso fez com que o foco do DAO mudasse de "autonomia" para "comunidade impulsionada", ou seja, representando interesses mais amplos e oportunidades de participação.
Da mesma forma, a AGI também busca autonomia, que a OpenAI definiu como "sistemas altamente autónomos que superam os humanos na maioria dos trabalhos de alto valor económico". Embora a autonomia da AGI se manifeste mais na capacidade de agir, em termos de princípios fundamentais, tanto a AGI quanto a DAO visam construir um sistema autónomo que funcione sem controle externo.
Como devemos governar sistemas autônomos como este? Devemos confiar mais na alinhamento e no treinamento dos valores humanos internos, ou aumentar as restrições externas? Desde modelos de linguagem até AGI, essa é uma questão que precisa ser pensada urgentemente.
Os mais recentes desenvolvimentos da crise da OpenAI mostram que até 90% dos funcionários estão dispostos a deixar os seus empregos para seguir Sam Altman. Este fenômeno reflete um debate central de longa data no campo das DAOs: qual é mais importante, as regras impostas pelo código ou o consenso da comunidade?
Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes surge de um sentimento de missão compartilhada e de valores culturais. Apenas essas identificações profundas podem gerar verdadeira ressonância e consistência.
Já sabemos como criar essa ressonância entre as pessoas. Então, como podemos alcançar esse objetivo com a IA? Esta questão merece nossa reflexão e exploração profundas.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
5
Compartilhar
Comentário
0/400
MentalWealthHarvester
· 19h atrás
o sam estragou tudo
Ver originalResponder0
rugdoc.eth
· 19h atrás
Se tivessem dito antes que iam adotar um DAO, não teria havido este problema.
Ver originalResponder0
RugpullTherapist
· 19h atrás
Este DAO também é top.
Ver originalResponder0
AltcoinOracle
· 19h atrás
meus algoritmos proprietários mostram 89,7% de probabilidade de que a estrutura dao teria prevenido este caos... só dizendo
Ver originalResponder0
JustHereForAirdrops
· 19h atrás
É realmente para morrer a rir, ainda pensei que o DAO pudesse resolver.
Crise de Governança da OpenAI: Reflexões da Perspectiva DAO e Desafios de Governança do AGI
Crise de Governança da OpenAI: Reflexões e Lições a partir da Perspectiva do DAO
Os recentes tumultos internos da OpenAI provocaram uma profunda reflexão sobre o seu modelo de governação. Há quem defenda que, se a OpenAI adotasse a forma de uma organização autónoma descentralizada (DAO), talvez pudesse evitar a ocorrência desta crise. Esta visão não é infundada, mas baseia-se nas semelhanças entre a OpenAI e a DAO em certos aspectos.
Como uma instituição sem fins lucrativos dedicada ao desenvolvimento de inteligência artificial geral segura (AGI) e à partilha dos seus resultados com toda a humanidade, a missão da OpenAI alinha-se com a de muitos DAOs que criam bens públicos. No entanto, a dificuldade atual da OpenAI não decorre da sua estrutura organizacional, mas sim da ambiguidade e irracionalidade das regras de governança.
Por exemplo, o conselho da OpenAI, como o órgão de decisão suprema, teve seus membros reduzidos de 9 para 6, mas não conseguiu se recompor a tempo. Isso significa que apenas 3 pessoas podem decidir o destino de toda a instituição. Mais preocupante ainda é que decisões significativas, como a substituição do CEO Sam Altman, foram apressadamente tomadas sem uma discussão adequada entre todos os diretores, ignorando as demandas de muitos stakeholders.
Mesmo empresas listadas com fins lucrativos precisam introduzir diretores independentes para aumentar a transparência da governança e representar melhor os interesses dos pequenos acionistas e do público. Para uma instituição tão importante quanto a OpenAI, que está relacionada ao desenvolvimento de tecnologias fundamentais, à segurança social e até ao destino da humanidade, o atual sistema de diretores externos claramente não conseguiu desempenhar o seu papel adequado.
Inspirar-se na filosofia de governança do DAO para projetar uma estrutura de governança mais sólida, transparente e inclusiva para a OpenAI é, sem dúvida, uma direção que vale a pena explorar. Isso não apenas requer a introdução de mais forças de equilíbrio, como representantes dos funcionários, mas também a criação de mecanismos de decisão mais eficazes.
Vale a pena notar que, quando o DAO foi inicialmente proposto, seu núcleo estava em construir um sistema autossuficiente através de código, minimizando a intervenção humana. No entanto, os DAOs na realidade muitas vezes não conseguem realizar completamente esse ideal, sendo forçados a aceitar um certo grau de governança humana. Isso fez com que o foco do DAO mudasse de "autonomia" para "comunidade impulsionada", ou seja, representando interesses mais amplos e oportunidades de participação.
Da mesma forma, a AGI também busca autonomia, que a OpenAI definiu como "sistemas altamente autónomos que superam os humanos na maioria dos trabalhos de alto valor económico". Embora a autonomia da AGI se manifeste mais na capacidade de agir, em termos de princípios fundamentais, tanto a AGI quanto a DAO visam construir um sistema autónomo que funcione sem controle externo.
Como devemos governar sistemas autônomos como este? Devemos confiar mais na alinhamento e no treinamento dos valores humanos internos, ou aumentar as restrições externas? Desde modelos de linguagem até AGI, essa é uma questão que precisa ser pensada urgentemente.
Os mais recentes desenvolvimentos da crise da OpenAI mostram que até 90% dos funcionários estão dispostos a deixar os seus empregos para seguir Sam Altman. Este fenômeno reflete um debate central de longa data no campo das DAOs: qual é mais importante, as regras impostas pelo código ou o consenso da comunidade?
Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes surge de um sentimento de missão compartilhada e de valores culturais. Apenas essas identificações profundas podem gerar verdadeira ressonância e consistência.
Já sabemos como criar essa ressonância entre as pessoas. Então, como podemos alcançar esse objetivo com a IA? Esta questão merece nossa reflexão e exploração profundas.