OpenAI o1草莓模型:AI安全了,但看起来AI大模型公司更风险了
文章最后更新时间:2024年09月15日
文 | 李智勇
假定o1草莓模型终究体现和发布的信息完全一致,然后回产生什么呢?
AI大模型更贵了
从发表的数据来看,咱们可以以为Scaling Law有用,不过这次不是堆数据而是堆机器和优化算法。
这意味着AI大模型明显会更贵,也更难,先是需求更多的机器,这导致更贵,然后靠人来做画蛇添足,这导致更难。
这可以和曩昔Sam Altman的言辞结合起来看,Sam Altman发过的惊人言辞包含需求征集七万亿美金等等,出资去处理电力问题等,两者却是匹配。
AI安全了,但AI大模型公司风险了
AI公司的风险有无数个,但AI作为一个职业,其风险只需1个,便是AI不好用。
假如Scaling Law有用,那不论多贵,都意味着这个职业处理问题的价值在添加,所以这个职业安全了。大概率不会再变成80年代人人喊骗子的局势,职业的安全意味着AI大时代根本会确认翻开。
但许多AI大模型公司是真的风险了。他们变成了使用不是使用,模型不是模型的一种公司。
跟进跟不起,不论是机器仍是人才储藏,明显的要想干好模型不单下一步贵,而且一段时间会越来越贵。
不跟进,那自己的高估值拿什么做支撑呢?定位是什么呢?一起这种推理的发展掩盖正是他们原本做的那部分作业。
冲击波从专业人员开端
从报导看Level2确实能曩昔,那咱们之前一切对Level2影响的预判将在短期成为实际。之前咱们这么解读五级模型:
上层使用完结的程度和先后可以参照OpenAI对后续AI进阶区分进行估测,下述为参照OpenAI分阶并弥补体系型超级使用信息后收拾而来。
阶段1:谈天机器人。AI可以与人对话,然后朴实看对话内容你不能分辩它是人仍是AI。对话的时分AI或许有错觉并胡言乱语,但逻辑自洽。当时就处在这个阶段。这个时分笔直型使用处于只能出现相似Copilot这类朴实的生产力东西,让ERP等进入下一代这类作业只或许在极小的范畴中出现,处于萌芽期。
阶段2:推理并处理实在问题的机器人。当你给AI实在的问题,它可以自行推理,甚至找你要它处理问题所短缺的信息或许资源,然后实在的可以代替人处理问题。到了这个阶段,一切白领作业根本就不需求人了。在这个阶段各种不牵涉实际物理国际的作业根本可以悉数用AI来处理,很多体系型超级使用会在企业范畴、部分职业比方律师出现。
阶段3:AI智能体。全面感知物理国际而且可以采纳举动处理问题,相当于把阶段2的才能从虚拟数字国际扩展到实在物理国际。到了这个阶段一切膂力作业就不需求人了,大街、家庭、公司到处都是机器人。这个阶段新式体系型超级使用扩展到物理空间,具身机器人会充满在各个生成日子的环节。
阶段4:立异者。AI可以组合现有要素在特定的方向上完结立异,比方他会创造性的依据面条和动物捏合出来用各种绘声绘色的动物。到了这个阶段,现在200人的公司估量只需不到10个人,像产品司理这样需求立异才能去界说产品的人物AI也可以承当了。这个阶段现有大部分可见的岗位悉数完结AI对人的置换。体系型超级使用会遍及在各行各业。
阶段5:组织者。这时分AI可以担任组织协调的作业,承当AI之上的AI人物(曩昔高管和CEO的人物)。到这儿每个咱们现在看到的范畴也都有了一个自己的AlphaGo,这个AlphaGo的专业性和才能远超曩昔人类一起具有通用性,大多企业里不需求管理人员,而是悉数被AI接收。
这个五级分类可以看成是一种AI庞大叙事类比曩昔的大同社会等。
现在Level2眼看要完结了,那首先是Level2的影响会产生,其次在于后边的是不是也是靠谱的,而不是单纯的幻想?
推理这事的影响方向十分清楚:白领包含高档白领甚至科研人员受冲击最大。
不过假如错觉问题没处理,那人类还能略有喘息。
智能飞轮看起来要转起来了
假如说推理才能确实能破局(当时并非是大成,而是一种破局),那AI真的可以做活跃的未来展望。不是由于OpenAI多牛,要害是咱们总说的智能飞轮要启动了。
当年AlphaGo为什么后来水平发展极端快?
中心就在于它转起来一个叫智能飞轮的东西。
形象讲便是AI可以服侍AI。
AlphaGo的范畴太笔直了,围棋太特别了,所以曩昔简直只需AlphaGo精干这事。
可假如推理才能搞定了,状况会有大改变。
在数据和算法两个环节,AI迫临可以服侍自己的边际。而这会解锁AI的进化速度。
说起来是个有点哀痛的故事,从智能飞轮、从AI进化的视点看,人才是最大妨碍,人担任的越少,AI担任的越多,那智能飞轮转的越快。
而推理才能最要害的就在于削弱人在AI发展过程中的人物,这反却是会加快AI的发展。
AI使用的黄金时代
揣摩事一向重复说个论题,AI会由于核算形式的搬迁导致很多的使用重做,曩昔咱们把它总结成从功用中心式核算搬迁到人物中心式核算。用老黄的图便是:
但这种重做在曩昔有点像构思霹雳战缺内燃机,推理的窗口一翻开,各种新实际就不是幻想,而是需求更为仔细的构思了。
这种仔细的构思要害是需求前瞻性,顺着AI头绪的前瞻性。
当年根据摩尔定律有这么一种思想形式:
我先把程序依照未来的核算量开发好,那怕现在慢点,然后我就度假去了,什么也不必干,等我回来曩昔不怎么好用的杂乱图形用户界面就好用了。
现在AI的头绪在出现相似摩尔定律确实认性,所以仔细考虑是指根据这种头绪的前瞻性考虑。
小结
不论怎么样AI革新先革自己也是有点出人意料的,曩昔很多AI的算法人员在这种发展下承压或许比装饰人员大的多。当年那些深度学习算法,是不是很快AI就可以干的比人更好?当然这还仅仅发布会上的一些零星信息,它的实在潜力还需求一些前锋使用来验证。值得等待。
发表评论