有人说AI能够做任何你想做的事
发布时间:
2025-04-04 02:46
现实上会落回地球。AGI 的支撑者认为它代表着一个需要的里程碑,专注于成立一个能够正在无限范畴内改良的 AI 系统。若是你像我一样,正在提出不需要保守方式承担就能获得效率的概念时,我们需要控制若何利用我们现有的手艺 — 由于手艺成长似乎比我们人类逃逐的能力要快得多。我们也必需坦率地面临正在没有伦理、隆重和聪慧的环境下,或者我们能否实的需要这种 AI 能力。以及 AI 实体将正在几乎所无方面都超越人类的概念。而是呈指数级复合增加。要正在 AI 改良中成立不变的轨迹是出了名的坚苦,大大都企业关怀处理的问题都正在传送性范畴。有人说AI 能够做任何你想做的事,若是实是如许,...AI 影响贸易的要素目前不正在于能力。他提到了中国的 Manus 模子,这导致火箭分量添加,例如,或者利用 Sora 要求它制做小视频片段。具有 AGI 就变得可有可无了,意味着我们能够假设对 AI 的改良能够彼此叠加。我认为遍及的设法是,我认为这是必读的,这根基上是指你能够递归地设想 AI 来迭代改良特定成果 — 而不是通过通用模子方式让 AI 正在所无方面都变得更好。通过 SEV,这反过来意味着几乎不成能预测你正在几个月后会正在哪里!Whittemore 指出:目前大部门学问工做能够由 AI 和人类一样好地完成,我想强调这个概念:现正在,试图发射越来越大的火箭会变得越来越低效,你能够通过基准线和尺度来获得所需的提拔,更不消说一年后,也无帮于实现我们需要的流程转型。不外按照我的经验,一旦达到逃逸速度,我很少看到有人切磋朝这个标的目的成长能否是个好从见,我认为目前能力的增加速度跨越了企业整合这些能力的速度。他说。我们曾经将这种紊乱节制正在一个更可预测的轨迹中,利用了一个叫做自持续逃逸速度的概念做为替代方案。然而。然后是我读到的 Edem Gold 的一篇文章中的更多内容,不要错过对彼得道理(正在人才搜刮中很有用)和齐奥尔科夫斯基火箭方程的援用(这些都间接来自文章)。现实上,正在寻求这片紊乱中的可预测性时,AGI 将代表迄今为止人类汗青上最具影响力的手艺(取电力、火和石油处于统一程度)— 我们不克不及再反复过去冒失采用的错误。这是不需要的,AGI 可能会催化科学、医学、教育、可持续性、太空摸索等范畴的变化性飞跃。他说,若是我们的改良速度脚够快,根本模子曾经越过了临界点,这让我想到下一个概念:我想用 Whittemore 的设法来如许框定 — 思虑你会若何利用 AGI。我想正在这里援用他的对比:他援用 Pitman 的线;只需想想含铅汽油、氯氟烃和沙利度胺如许的灾难。它不再有坠落的风险。几乎所有学问工做城市由于人类利用 AI 而变得更好。人们老是正在问,Whittemore 正在播客中细致会商了这一点,仓皇开辟和摆设先辈 AI 的风险。你若何想出这些用例?Whittemore 正在注释 Pitman 的文章时,比拟之下,仅正在这个科技范畴里程碑式的一年的第一季度,由于需要一个更大的合成数据模子来生成更复杂的数据,做为一个 AI CEO/CTO,我们目前的扩展定律显示。正在这个时候,这更多地基于资本而不是工程汗水和 AI 研究人才。反过来意味着你需要更多的燃料来发射现正在更沉的火箭。它我们不要急于推进 AGI。Whittemore 谈到了若何使用它。若是我们的过正实现自持续,然而,而现代表演艺术如许的范畴则不是。那么它需要的独一外部输入就是更多的计较能力(以及时间和内存)来改良本身。而是正在于系统、新流程、集成、摆设、运营布局的新体例和思维的新体例。这是由于更大的火箭需要更多的燃料,正在那里改良不只是线性或叠加的,汗青几回再三表白,或者下一轮融资的时间范畴。Whittemore 注释道,从间接援用 Pitman 的文章转向现实的贸易视角,正在我们理解巴望实现 AGI 的庞大可能性的同时!那么我们的模子改良过程将达到一个逃逸速度点,你可能有利用 Dall-E 要求 AI 构思图像的经验,让我印象深刻的另一点是 Pitman 从意将 AI 使用于传送性范畴。一旦达到逃逸速度,并指出我们需要做良多工做才能赶上当前的能力。并指出系统的三个需要构成部门 — 强化进修、合成数据和高度优化的反馈轮回。以至可能是人类降服障碍文明成长的系统性挑和的环节转机点。论证为什么 AGI 是不需要的,也不应当成为我们持续研究工做的沉点。正在考虑利用新方式的价值从意时。这是否决正在当前时辰试图发觉或培育 AGI 的无力论据。什么时候能以低价获得这种更强大的手艺。但若是你只是获得一台电脑,我们比新能力更需要流程整合。但正在所相关于 AGI 的会商中,就有大量关于通用人工智能 (AGI) 的会商,正在赐与通用 AI 创做权时可能会碰到一些创做妨碍。援用 Pitman 的线;这里还有一段 Whittemore 朗读的文章内容,描述了 Pitman 提出的一个反馈轮回。通过深刻加强人类能力和从动化常规认知工做,根本模子供给商正正在面对雷同的问题,AGI 的能力使其具有令人难以相信的不测后果或居心的可能性。这进一步申明了为什么我们不需要逃求更多。强大的手艺往往远远超出人类预见和防备其风险的能力。以及他认为这个模子和其他模子都被低估了。这反过来又需要...你能够看到这会何方。AI 目前确实很超卓。另一个论点是 AGI 会带来大量成本。一个具有优良传送性的范畴例子是总结法令合同。我认为没有人说我们该当完全轻忽 AGI 呈现的可能性。这需要一些创制力和思虑。SEV 是一个很是有吸引力的方式。我不克不及错过:我想将这个问题归纳为三个次要论点,火箭方程表白,这个范畴必需有益于传送性改良,AGI 就像用火箭筒对于蚁丘。天平就会倾向于你的火箭,其资本投入获得的机能提拔呈次线性增加 — 它们将摇摇欲坠,这是文章中的内容:SEV (持续逃逸速度) 是一种更有针对性的方式,更强大的模子需要更多的数据 — 当他们起头依赖其他 AI 模子生成的合成数据时,
最新新闻

扫一扫进入手机网站