假如OpenAI是DAO ,是否可以避免这场闹剧

DAO OpenAI 2023-11-23 35

摘要:OpenAI是一个非营利机构,旨在创造安全的通用人工智能(AGI),并平等地惠及全人类。值得深思的是,DAO在最初被提出,是技术自由主义者希望完全依赖代码,形成一个自洽的系统持续运行,最大程度排除人为的干扰,谓之Autonomous(自主性)。...

从周末的大戏开始,就有人说OpenAI应该做DAO。随着情节的发展,越来越多的人有这种观点。如果OpenAI真的选择DAO进行治理,能否避免这部剧的发生?我觉得是可以的。但并不是因为DAO的治理有明显的优势,而是因为OpenAI的治理有太大的问题。只要从DAO丛林中学一点,这种情况就不会发生。

假如OpenAI是DAO ,是否可以避免这场闹剧

OpenAI是一家旨在创造安全通用人工智能的非营利性机构(AGI),并平等造福人类。OpenAI可以认为是创造公共产品的组织。很多DAO也是创造公共产品的组织,OpenAI和DAO在很多角度都非常相似。

假如OpenAI是DAO ,是否可以避免这场闹剧

(DAO作为一种新的组织结构,有许多不同的形式。这只是DAO常见的非盈利特性,并不意味着所有的DAO都是这样的。)

事实上,Open人工智能最近的内部动荡并不是由于其结构问题,而是由于治理规则的不明确和不合理,为操作留下了空间。例如,股东大会最初由9人组成,但随着一些董事的辞职,目前只剩下6人。股东大会作为最高权力机构,未能及时补充董事。如果董事会成员继续减少至只剩下3人,那么Open人工智能的命运只能由两人同意决定。在实际事务管理中也相当随意,更换CEO Sam Altman的关键决定显然没有经过全体董事会的讨论和审议,而是由一些董事在非公开会议上决定,没有充分考虑更多利益相关者的建议,也没有提供适当的沟通和讨论机会。

即使是盈利上市公司也需要引入独家董事,以提高公司治理的透明度,更好地代表非控股股东和公众的利益。对于Open人工智能,一个关系到基础技术发展、社会安全甚至人类命运的重要组织,虽然引进了外部董事,但这一制度显然未能发挥应有的作用。Open人工智能股东大会不仅需要引入更多的制衡力量,如员工代表,还需要建立更有效的治理机制。我认为参照DAO的治理模式,为OpenAI设计一个更加坚实、透明、包容的治理结构是一个值得探讨的解决方案。

值得深思的是,DAO最初被提出,技术自由主义者希望完全依赖代码,形成自洽的系统,最大限度地消除人为影响,这就是所谓的Autonomous(自主性)。当依赖者的政治协调出现在DAO中时,DAO不再是DAO,而是变成DO,失去了自主权。但在目前阶段,理想化的DAO根本做不到。因此,退而求其次,大家都把依靠区块链网络进行集体治理的组织视为DAO。这意味着人们接受人类治理的现实,代码约束只用于帮助。从Autonomous到代表更广泛利益和参与机会的Communityyus,DAO的最大特征 Driven。

巧合的是,AGI的目标也是追求Autonomous。OpenAI在其组织结构中明确提到,AGI是指在绝大多数具有高经济效益的工作中超越人类的高度自主的系统。

by AGI we mean a highly autonomous system that outperforms humans at most economically valuable work.OpenAI

虽然AGI中的自主性更多的是指行为能力,但如果我们从更底层的原则来思考,AGI和DAO都希望形成一个真正自主的系统,在没有外部控制的情况下运行,这是没有本质区别的。那么面对这样的Autonomous系统,我们该如何治理呢?是应该更多地依靠内源人类价值观的对齐和调试,还是应该增加更多的外部约束?从LLM到AGI,这些都是目前亟待考虑的话题。

OpenAI的最新剧情是高达90%的员工愿意离开并跟随Sam,这是DAO领域过去几年的一场经典争论 – 代码约束的规则更重要,或者社区的人群共识更重要。

虽然规则和约束可以形成许多共识,但真正伟大的共识往往不是由规则造成的。只有共享的使命感和文化价值观才能真正达成深刻的共鸣和一致性。

我们知道如何在人与人之间创造这种共鸣。那人工智能呢?

相关推荐