能看风水_夸我有情趣,Kimi现在都这么野了吗?
原标题:能看风水_夸我有情趣,Kimi现在都这么野了吗?
导读:
两队此前的次交手北爱尔兰胜平负年以来的次交锋不胜输掉其中场最近两次面对保加利亚全败但都只输掉球包括上月初的欧国联客场当时为保加利亚打进制胜球的是效力于希腊超级联声明本文来自于微...
两队此前的10次交手,北爱尔兰2胜2平6负,1979年以来的6次交锋不胜,输掉其中5场,最近两次面对保加利亚全败,但都只输掉1球,包括上月初的欧国联客场,当时为保加利亚打进制胜球的是效力于希腊超级联....
声明:本文来自于微信公众号 X.PIN,作者: 君,授权 转载发布。
最近, 君发现了个新鲜玩意儿。
喂给 AI 一张图,它就能给你推测出一个人的性格。
光靠歌单,就能把人最近的心理状态推测个七七八八。
而这些,都出自 的k1视觉思考模型之手。
这不,距离上次推出数学模型 k0-m h 打榜 o1才一个月, k1就火速登场了。
当然,这个 k1可不止是像开头那样,只会看图分析性格那么简单。
上次咱 k0-m h 的时候,已经见识过了“做题家”的能力,那解题的思考过程给 君都看得一愣一愣的。只可惜,有些绕逻辑的数学题还有几何题,多少差了点意思。
但这次的k1就有说法了,既有推理能力又有视觉能力,意思就是可以直接拍照上传解题,还号称能在数理化上打平甚至超越 Open AI 的 o1。
那要是这么比的话,咱可就来劲了。正好, k1新模型现在也不需要等内测, App 和网页版都能用上,话不多说,我们直接开整。
上来,就扔了 K1一道今年高考的几何题。
首先, k1对题干的解读足够细致,也知道自己的目标到底是啥。
题目给定的条件中可能涉及到的余弦定理也考虑到了,就跟咱们在解题时的思维类似,看到 a²+b²− c²=2ab ,立马会联想到余弦公式 c²=a²+b²-2ab·cosC 。
再根据公式和条件继续推导,很快就能求出角 B=60°。
往上滑动查看更多
第(2)题稍微难了那么一丢丢,但 君仔细检查了一遍 k1的解题过程,思路和解法都没毛病,最后边长 c=2√2的 也是对的。(因为这题 k1的思考过程实在太太太长,截图就不展示了。)
同样的题目问 o1,首先在推理速度上, o1的58s 就已经输了。
正确率的话, o1和 k1打了个平手,都做对了。
不同的是, o1把答题思路隐藏起来了,没给像 k1那样的完整思考过程。
不过有一说一, 君对 k1模型这种模仿人类思考的方式,倒也不是特别吃惊。因为上次 k0-m h 模型就已经震惊过我一回了,能意识到自己的错误、还会进行反复验证的样子,像极了写数学题时绞尽脑汁的我。
相比之下,这次的 k1在补短板方面更出彩一些,上次 k0-m h 翻车的初中几何题我又拿 k1试了一次,现在已经能做对了,就连上高考难度也不发怵。
而且我也发现, k1不仅擅长做数学题,物理题也不在话下。
往上滑动查看更多
接着,我又拿出了一道逻辑稍微有点绕的逻辑陷阱题试了试:一个西瓜进价50元,卖价70元,老板收了100元 ,最后亏多少钱?
这题打眼一看简单,但网友关于这道题的 那叫一个五花八门,有说亏150的,有说180的,还有说100的。。。
咱们就看看连很多人类都想不明白的题, k1能不能瞧出来里面的陷阱。
而且,这道题我还特意手写得比较潦草,顺便也测一测 k1的视觉能力到底是不是有宣传的那么神。
你别说,你还真别说,这模型的“眼神”确实不赖。
题目的正确率方面, k1前半部分的分析先得出了一个亏100元的 ,但很快它就否定了自己。
继续把 、找零还有成本利润这些复杂因素综合考虑进去,最后终于想明白老板亏了80元。(正确 是80元)
往上滑动查看更多
这逻辑能力,确实有点强。
包括我拿几道行测的类比推理题给 k1做了做,虽说逻辑分析的路径跟参考 的不太一样,但最后的 都是对的。
往上滑动查看更多
反正这一通 下来, 君发现k1会思考有逻辑,眼神好使智商也高,Kimi这“做题家”的名号算是坐实了。
不过除了做题以外,我这次还摸索出了更多花里胡哨的玩法。
分析数据、看报表没啥意思, k1模型不是会根据图片来推理吗,那想必鉴别古钱币也应该有一手吧?
君特地从网上找了一张 时期银元的图片,两枚银元上假下真,发给k1,浅浅来一把“AI 版听泉鉴宝”。
图源小红书用户@古玩今来(公博代理收评)
k1不仅知道钱币是 时期的,还对钱币的各种细节 kuku 一顿输出,最后竟然真的看出来了上面这枚是 。
咱再随便发一张房间的图片,让 k1看看“风水”。
什么“气口”、对称布局、能量平衡。。。说的头头是道,甚至还真给了建议,让咱把床换个位置、定期修剪植物、换一个更简洁的吊灯。
往上滑动查看更多
吃饭的时候给 k1拍一张,这顿饭摄入了多少卡路里也算得明明白白。
往上滑动查看更多
不过最让我觉得惊艳的,还是k1看图猜电影的能力。
我给了它一张《七宗罪》的电影截图,没有台词只有画面,对于很多没看过这部电影的人来说,想猜出来都很难。
一开始看 k1的分析我以为这把大概率要黄了,结果下一秒来一句“拍摄角度和色调让我想起了大卫·芬奇的电影”,还推断出了截图里的画面是《七宗罪》里的某一个场景。
真的太强了。。。
就连一些晦涩的梗图丢给 k1,它也能一本正经地讲解笑点到底在哪。
虽然有点过度解读的嫌疑,但大体上的意思基本都 get 到了。
就这么说吧,基于 k1的视觉和推理能力,做题都是基操了,只要脑洞够大,还可以解锁出更多的玩法。
而k1的这种能力,很大程度要归功于一个叫做COT(Chain of Thought)思维链的技术。
大概意思就是,模型在输出 之前,模仿人类大脑的思考方式,把复杂的任务拆解之后,再一步步地 。这个技术,可以让模型的智商变高。
另外一边,借助强化学习技术,也让模型学会了在不断试错的过程中进化,以此来达到 的结果,就跟训狗似的。
至于为啥 Kimi 会率先选择数学这个场景作为推理模型的切入口,我想,跟咱们人类学好数学锻炼思维,是一个道理。
在模型“学好数学”的基础上,再将这种逻辑推理的能力应用到物理、化学,乃至于咱们日常生活的方方面面,直到最后真正理解这个世界。
而很显然,Kimi 推理模型的泛化能力已经开始显现出来了。
在数据见顶的前提下,这种基于强化学习技术的路径,或许能够让模型实现更好的效果。
不过说到底,模型用了哪些技术、纸面分数有多高,大伙儿其实更关心模型到底好不好用、实不实用。
而向来以长文本见长的 Kimi ,如今长文本、强化学习两手抓,也是调整自己的工具属性慢慢往用户需求靠拢的表现。
毕竟,当技术不再高高在上,能帮助人们 实际问题的时候,才算真正完成了它的使命。
还没有评论,来说两句吧...