【2.5小时精校完整版】Sam Altman:一次或将载入科技史的深度访谈

作者: Web3天空之城分类: 财经商业 发布时间: 2023-05-23 19:27:05 浏览:31340 次

【2.5小时精校完整版】Sam Altman:一次或将载入科技史的深度访谈

唐棣之华偏其反而:
当时 lex 更新这个对话的时候就听了,觉得 Sam 面对 AI 是相当负责的态度,在谈话过程中也在积极的询问 lex 如何看待 OpenAI 不开源 GPT4 的决定。 但前两天 Sam 来我们学校有一个 Talk 时候,台下大部分学生的都认为 GPT 应该开源,但 Sam 直接回绝了,可以看出 Sam 认为负责的使用 AI,是需要严格控制其用途的。虽然这也可以是一种合理的观点,但考虑到 AI 社区长期以来的开源传统,这种观点注定得不到其他研究人员的支持的。

【回复】回复 @硬核ironman :首先ai不是核武器,你如果希望用类比的方式论证你的观点,至少要把相似点说清楚,一句反问没有任何意义。 其次就是现在所有的ai研究其实能够有今天的成果,非常大程度要归功于开源的社区和研究氛围,研究代码的开源极大的提高了可重复性和效率,可以说 OpenAI 是依靠着社区走到了今天,哪怕 GPT-4 相对于其他 LLM 有显著的差距,它所使用的技术和基础研究绝大多数都来自于开源社区无偿的分享。 OpenAI 当然可以选择不开源他的模型,他可以有自己的考虑。但这样的行为其实是破坏了当前学界的传统,也与这个公司价值观中的开放相左,作为社区的一员我们当然不希望这种行为成为新的潮流。
【回复】按照之前谷歌的分析报告来看开源社区已经很大程度上在小模型领域赶超谷歌和OpenAI了 除此之外 OpenAI不开源的行为却又挂着open这个名号挺让人恶心的
【回复】嗯 说到底openAI就是不开放技术了。。Ilya也是同样观点
層林尽染:
省流:ChatGPT关于本视频的总结: 标题:《OpenAI首席执行官Sam Altman在Lex Fridman播客节目上讨论GPT-4和人工智能的未来》 在最近的Lex Fridman播客节目中,OpenAI的首席执行官Sam Altman分享了他对人工智能的独特见解。Altman讨论了他的公司开发的人工智能模型GPT-4的可能性,以及如何通过迭代测试和反馈循环来改善和优化这种先进的AI技术。 OpenAI,一家旨在确保人工智能(AI)可以安全、公平地为所有人服务的公司,最近取得了一些重要的突破。首先,他们成功开发出了被誉为GPT-4的语言模型,这个模型的参数量高达100万亿。这种模型能够对代码进行调整,捕捉编程中的错误,从而成为创新的合作工具。 在讨论过程中,Altman强调了AI的潜力,他表示这种技术既具有强大的赋能能力,也有可能带来破坏性的影响。因此,围绕AI的安全、对齐以及人性的讨论在AI讨论中至关重要。他解释说,OpenAI正在通过评估和使模型与人类价值观相一致的方式,解决GPT-4开发中的安全问题。 Altman解释说,通过使用人类反馈来提高AI模型的性能,使它们更容易使用,需要的数据更少,这是一种称为RLHF(强化学习通过人类反馈)的方法。然而,建立一个高质量的RLHF数据集需要从各种来源筛选内容,这需要大量的努力。 OpenAI首席执行官还讨论了他们的模型在公共领域的反馈。他说:“我们的迭代开发过程包括发布模型,从公众那里接收反馈,以确定优点和弱点。”这种方法使OpenAI能够根据用户的需求和反馈不断改进其AI模型。 谈到未来,Altman表示对GPT-4带来的变化既兴奋又紧张。他认为,尽管AI将导致一些工作消失,但它也将创造新的、无法想象的工作。他还提出了实施全民基本收入(UBI)以缓解AI对工作的影响,以及消除贫困的可能性。 Altman明确表示,OpenAI致力于提高语言模型的能力,以确定何时拒绝问题。他期望GPT-4在探索有争议的话题时,能有更多的细微差别,并以尊重的方式进行。 总的来说,这次讨论提供了一个深入了解OpenAI以及其最新人工智能模型GPT-4的良机。从辩论AI的意识,到讨论AI安全控制的必要性,再到探索AI和开源文化在企业中的融合,这次讨论为我们提供了对人工智能未来的深入洞察。

【回复】回复 @層林尽染 :曾经用ai和别人对线
【回复】回复 @zhang12198 : GPT-4做省流小助手特别合适
【回复】这段对话是GPT4弄的吗❓给人一种机器人🤖的感觉。
德福贝尔:
回答时体现的这种专注程度真的好厉害

【回复】你能指出来这点说明也不错[doge]
【回复】回复 @谛者战神 :你的敏锐和情商更优秀[打call]
京海市强盛集团高启强:
感谢up,不过还是机翻的,还可以翻译的再准确一些

【回复】你不要上来就定性机翻啊 这顶多可以说猜测,但除非有证据不然怎么上来就说别人怎么样了 。
【回复】有哪里不准可以指出 这是精校版
X仔2000:
亮点: 00:00 OpenAI在2015年宣布着手开发AGI时备受嘲笑,但现在已不再是这样。 17:57 谈GPT-4、ChatGPT和AI未来 35:55 讨论了不同国家的言论自由问题,OpenAI需要对模型进行重度干预和负责,而人们更希望的是符合他们世界观的模型。 53:54 AI 对人类的威胁是存在的,但只要 AI 能够与人类保持一致,我们就可以探索 AI 带来的巨大潜力 1:11:54 认为多个AGI存在是好事,OpenAI的非营利组织结构使其具有抵抗产品的能力。 1:29:52 GPT系统可能面临来自政治、社会和资金等外部压力,但技术可以尽量减少偏见 1:49:51 Sam谈论如何判断真相和幽默 2:05:49 旧金山谷银行的问题是激励错位的一个例子

小夏的味觉世界:
他现在为啥气泡音这么严重?以前演讲不这样。

希望头发长多一点:
ai的危险,在可以预见的未来,依然是作为工具的危险性。这样的工具已经够多了,不多ai一个。祝这些开发者好运吧。

AI视频小助理:
一、OpenAI的发展历程和对人工智能未来的看法,探讨了人工智能的潜力与危险,以及人类与计算机的互动。 00:01 - 兽人被误解和嘲笑,AGI项目面临挑战 01:15 - 萨姆·奥特曼认为人工智能是关键时刻,但也有危险性 05:41 - GPT模型的发展是一个飞跃,但需要更多的人类指导和反馈来提高模型的可用性和易用性 二、如何使人工智能(AI)系统变得明智、合乎道德,并与人类思考保持一致的方法。同时,探讨了如何利用AI系统来帮助人类创造更美好的世界。 08:21 - 如何使机器变得明智、合乎道德、与人类思考保持一致 09:11 - 数据集的巨大性和来源的多样性 11:57 - GPT的语言模型的学习和智慧的飞跃,以及与人类的互动 三、OpenAI推出的GPT模型的一些细节和应用,并探讨了模型的偏见和安全问题。作者认为,虽然GPT模型有很多好处,但仍需要更多的研究和改进。 16:41 - 特朗普问GPT字符长度,展示拜登回复比特朗普长的回应。 18:30 - 模型很难,数字和单词很难做好,需要更个性化的控制和随时间的粒度控制。 22:54 - AI安全是大问题,需要花费时间和资源进行测试和对齐。 四、GPT-4模型的系统消息功能,以及提示符在写作和设计中的重要性。此外,视频还提到了AI安全的问题和挑战。 25:00 - 更好的对齐技术导致更好的能力,反之亦然 26:07 - GPT 4推出了系统消息,让用户更容易驾驶 29:32 - 与GPT 4合作时,提示符是艺术形式,它在任何地方都相关,也与编程非常相关 五、人工智能在道德和伦理方面面临的挑战,包括仇恨言论、偏见和不良输出等。同时,视频也探讨了人工智能的边界和责任问题。 33:21 - 追随犹太教的人意图难懂,需要深入探讨 35:04 - 讨论人工智能对社会的影响,需要划定界限 38:47 - 人工智能模型可能会产生愚蠢的答案,需要考虑如何应对 六、GPT模型的发展和应用,以及对于参数数量的讨论。作者认为,GPT模型仍需要扩展范式,但需要更多的想法和突破。 41:41 - GBT 4是一个可以帮助我们的工具 43: --本内容由AI视频小助理生成,关注解锁AI助理,由@八戒少七戒 召唤发送

楠楠与小提琴:
Altman在Devday上面 大有把ChatGPT嫁接在所有目前我们在手机上用的app上的意思 并且开辟了自己生态的got store 我只想问 其他的软件App大厂同意吗[笑哭]其他的硬件厂商同意吗[笑哭]苹果能同意吗[笑哭]特别拭目以待[星星眼]

咸鱼瞎乱玩:
我认为tom altman这个人是个true man,说话做事负责任,重要的是有眼光,在他说不再会发布gpt下一代而改变策略的一段时间后,结果出现了个gpt语音对话,这又一个重要的应用功能点。

AI ChatGPT SamAltman OpenAI GPT

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!