56 条留言
coolsyang
2017-04-30 00:00
实验舰与实用鑑并无衝突,中美二者皆如是,只是美国超前太多,好在共匪追击速度也蛮惊人。
我从来没説过辽寧舰不能用在实战。各种迹象显示,共军也的确准备在2020年后,辽寧号必须负担实际的战备任务。
crztrader
2017-04-30 00:00
有个想法,可否做个快速升降平台,用油压等方式将舰载机顶到某个高度,再让飞机加力衝出去,这样可行吗?
不可能。油压不适合快速运动,否则液压油的蒸汽会自发爆燃。这也是弹射器不能用油压的原因。 有垂直分量的电磁弹射器是共军正在研发攻关的新技术,最先部署的可能是用来垂直冷发射导弹的电磁助推装置,大概还要3-5年吧。
Orientalcrimson
2017-05-01 00:00
请问王先生,您提到美国航母战斗群指挥者为巡洋舰而非航母本身,是为了让航母保有"电磁静默",而共军的设计非如此. 请问您认为共军在日后建造更大型航母时,会採用美国航母的编制,把指挥权交给巡洋舰(或055驱逐舰)吗? 另外请教您, 共军的航母可能需要陆基飞弹及"飞机"的支援,以目前航母上的J15为空优机,请问陆基飞机需要给予哪方面的支援? 我是个喜欢看您部落格的读者,对军事是外行...谢谢您解答.
我觉得他们应该改,但是看来不会。 其实美军的战斗群司令也是在航母上。不过他们把战斗群的任务明确分为三种:打击、防空和反潜。最复杂的第二类任务,指挥官在巡洋舰上。战斗群司令不需要自己的庞大空情指挥中心,也不需要全尺寸的对空相控阵雷达。 J-15绝对算是多功能飞机(定义:能发射有制导的对地对海武器),空优只是偏重。016和017号都各只有一个团的J-15,光在数量上就不足以打一场大规模空战。此外,J-15不是隐身机,必须依靠J-20长途奔袭来狙击像是预警机和加油机这些目标。远程的搜索、定位,也最好是有陆基的战略侦查无人机帮忙。至于东风26和东风21D,则是预先削弱美国航母战斗群的防綫的重要手段。而预警机、加油机、指挥机、电战机等等,更是滑跃甲板航母的软肋,有了陆基支援就没问题了。
2017年4月29日,凤凰卫视《周末龙门阵》,主题《重器入水》,腾建群,王云飞,王云飞原话说:“......上翘角比原来减少了2度......”。链接是:
phtv.ifeng.com/.../zmlmz/ 王和藤都是海军背景,不会公然在电视上胡说吧!
至于翘角减低是否有缩短起飞距离,我也怀疑。
但是,翘角改小对起落架寿命有帮助是肯定的,我自己也是学物理的。至于降落时,肯定是对起落架造成主要损害,这是事实。使用拦阻索迫降,主要受力点是索勾与机体大梁连结件。
谢谢。 我觉得还不到能确认的程度。
crimson1101
2017-05-03 00:00
I've been reading your blog for past few years and truly appreciate your effort in shedding lights on a rather mysterious PLA (actually, all military are). However, I do have a request to made. Can you tell us something about quantum computing? I've read online that many nations are investing heavily. I understand the qubit part but it's the hardware that I don't understand. I'm not an engineer so my main question is does this requires new material/new manufacturing techniques? How will this impact the current computer industry? Also what is China and US progress on this field? Is it still more on Sci-Fi stage or are we close to see commercialization? Thanks. (And yes, please do remove this post as it's rather irrelevant to the topic)
The science behind Quantum Computing is well understood, but it is very early in its engineering development cycle. My guess is that no practical application will be realized for 20 more years. Even when it works in the future, its use will be fairly limited in daily life. The main impact will be in cryptology (thus military) and some isolated research areas such as protein folding.
goldshore
2017-05-04 00:00
@纳兰 根据景陶拍岸的说法,中国大陆统一台湾不管用什么方法都合情合理,但再要拿回琉球就过份了,这一想法不知只是景陶拍岸的个人想法呢,还是代表中国高层的想法就不清楚了。
是的。不会为琉球而开战,但是开战了就可以拿下琉球。
关于一则对新型号战机存在的推测的新闻。
http://mil.eastday.com/a/170503123453835.html 这篇文章中给出了一个央视电视节目的截图,这个节目中有几位成飞沈飞的核心科研人员作为嘉宾出场。根据文章和电视节目的截图以及截图中的字幕与时间,可以确定仍然有一款未正式发布的军机。虽然作者推测是歼31舰载版,但我不认为是。重点在于截图中介绍沈飞的副所长时用的是“谋型号飞机总设计师”,但字幕有显示这是今年五一劳动节的纪念节目。所以在此时间点上歼31早已算是发布完成了,没理由写某型号。另外几位嘉宾都写了自己负责的机型。而这位女士又是沈飞的人,没理由轰20是沈飞负责。综上恐怕舰载机会是一种新机型,但由沈飞设计。(希望这只是猜想)
很明显是J-11D的总师。空军不买J-11D,转而去外购SU-35,以致J-11D前途不明朗,所以还没有正式公开。
www.zhihu.com/question/62106278/answer/195186513 蒸弹和电弹面对两套不同的舰载机设计需求指标,也许是不给蒸弹装机机会的原因。电磁弹射器的直线电机会在大约100米长的行程中持续提供100吨左右的牵引力来弹射重型舰载机。因此要求前起落架和相关机体承力结构的加强标准是3倍重力加速度的标准,比如3g2000次。蒸汽弹射器的开槽气缸的出力特性是开始时压力最大,达到大约200吨,然后快速衰减。这样的话就需要把机身结构加强到6g。要求提高了一倍。
咸水战斗机的机体是可以承受主翼升力方向上7g加速度的,大约几十次。但是舰载机前轮牵引方向受力的情形却仍然需要额外地付出大量追加的结构重量。因为承力点和承力方向的不同,承力结构都要重新计算修改,包括主起落架、着舰鉤及其连接部在“受控坠毁”时的受力要求也是。舰载机的机体为了满足航母暴力弹射与暴力着落的需求,比同型号岸基战斗机结构重量多出来一两吨,结果升力方向的承力极限却从9g降低到了7-7.5g,导致空战狗斗能力反而下降。前起落架航向3g和6g的结构加强需求相差大约几百公斤的结构重量。
现在美军的新型舰载机就遇到了福特级航母的适配问题,福特级的电弹弓只需要3g,那么新塑胶虫和肥电能不能减轻一部分结构重量换取更强一点的作战性能和更低的制造成本呢?Nope.美军现在的结论是新舰载机必须要同时适配福特级和尼米兹级。这是为了每个舰载机联队都能够灵活的被任意的航母所调度。如果玩两套标准,那么可能需要多买一两百架飞机才能满足周转。这些新买的飞机并不能形成额外的战斗机,只是用于加强周转调度,这个代价太高了。于是升级电弹的好处有一部分美军一直无法享受到,这种情况将持续四十来年,直到老尼米兹级完全退役或行将完全退役的时候。
如果PLAN决定一艘蒸弹都不建的话,毫无疑问是得罪了一批人和单位,也浪费一大笔专案研发支出。我想配套舰载机的问题就是最大的决定因素了。能绕开美军现在遇到的这个大坑,即使多等一等也值的。何况,也许电弹自身进度从未落后,等的说法就不成立。
合理。 代价是服役时间延迟至少三年,可能更久。 我原本以为蒸弹会搭配J-15,电弹则用J-20海军型。取消蒸弹,岂不是把J-15的弹射型也砍了。
crztrader
2017-07-13 00:00
01网站是台湾着名的论坛网站。两个我常看的版面,新闻版与军武版。新闻版网友很多都蛮了解现在大陆的发展,在新闻版那些造谣、抹黑、反中的贴子,会被很快地集体打脸。所以新闻版觉醒青年逐渐没有声音,但仍有特定ID每天转贴大纪元、三民治、美国之音等媒体有关中国的负面新闻,然后射后不理不参与讨论。我透过这个窗口感受到很多井蛙都跳出井外,这趋势明显。另一方面,台湾人被洗脑的人数也再增加。整体是呈两极化发展。
军武版则几乎被觉醒青年占据洗版成一言堂,看看这个连结
www.mobile01.com/topicdetail.php 讨论军武要有点军事素养,军武资讯来源杂多良銹不齐,且很多是机密无法证实。所以01军版成了觉醒青年的乐园,他们在那相濡以沫互相自慰,对提出异议的言论是轮流炮轰,无视逻辑与事实。
至于楼上问Brian 转贴的文章来源。
那是01论坛军武版Charlie2020写的东西,网址是
www.mobile01.com/topicdetail.php 他也是觉醒中的一员,常常被打脸,但在军版他们都很能凹,互相支援,所以声势浩大。
只要有人在01引用王先生的文章,我都会劝告不要贴王先生的东西。王先生的文章其实他们很忌惮,只要有人引用,就有人开始抹黑攻击企图消毒。
我在新闻版看台湾民意发展,在军武版找乐趣。
和我到Guardian去瞭解英美白左对中国的抹黑,有异曲同工之妙。
singsing11
2017-07-13 00:00
请问Brian 转贴的文章来源, 我也想看看.谢谢. 另外, 看到文章中部份问题, 作者可能不大清楚X波段,主动相控阵的特性, 它是可以把雷达发射机分组, 令单面雷达也可以搜索与制导同时进行, 加上时间差的处理方式, 以我的理解是没有问题.
这人说X波段只能用来火控,是因为他读了有关美军AMDR的文章,其中X波段就只是用在火控上,所以脑补以为全世界都如此。其实X波段专用在火控上,是美军独有的;原因只是必须与大批库存的标准2型的半主动引导头兼容。既然每艘防空舰都有X波段火控雷达,新的标准6型又反过来必须兼有半主动模式。基本上就是老技术的沉没成本太高,无法一次性地乾净淘汰。 欧系的X波段主动阵是你説的搜索兼火控。AMDR-X要用在搜索上,当然没有什么不可逾越的难处,只是美军的雷达体系里,这个功能已经被S波段雷达占据了,重新整合花大钱却没有大效益。 055的系统则是世界领先的综合射频:每个频道的天綫都有,但是每个频道的每个方向都只有一个天綫。利用AESA可以同时发射接收多个波束的特性,不论背后所需的功能是什么(例如通讯、电磁反制、搜索、火控、反导),只要用的频道一样,就都通过同一个主动阵列来发射并接收。欧美俄都还没有这样的技术。
我想问核动力航母遇到战损能否抢修? 核动力航母都是二战后建造的, 目前还没有战场上受到攻击而抢修的实例. 核动力节约下来的燃料空间, 是否足以补偿维修上的不便? 中方是否应考虑干脆放弃核动力航母的建造计划, 扬长避短, 发挥自身的制造能力, 专注于数量以及损管维修的能力, 这可能在战时整体上收益更大.
這方面的真正專家是剪水鸌。與其由我復述,還是直接去讀他的博客能得到更完整深入的瞭解,參見https://www.zhihu.com/people/wang-xiao-hui-50-34
2022-06-21 12:30 回复
路透社卫星照片称中国正在建造新的陆上核反应堆, 如果是真的, 那核动力航母研发是开始了吧? https://www.ap.org/news-highlights/spotlights/2024/satellite-images-and-documents-indicate-china-working-on-nuclear-propulsion-for-new-aircraft-carrier/
是。
其實航母改為核動力的戰術性好處並不大,這是因爲護航船艦和艦載機還是要燒油,航母本身續航力增加的實質意義有限,維修時間和成本卻也大幅提升,反過來減低可用來部署作戰的時間。所以核航母的實用優點反而主要在於節省那個大烟囪,方便甲板調度,但宣傳上的廣告價值可能才是中方決定研發核航母的真正戰略考慮,讀者可以拿來與多年前博客對載人登月的評論做對照。對前面所提技術性細節有興趣的軍迷則可以在剪水鸌的網站找到更詳細的論證。
2025-01-14 09:07 修改
同意,核动力航母实战价值增加并不多。不过,如果开始着手搞核动力航母,并假设决策层仍遵循理性原则,那很可能意味着其它优先级更高的重要军事项目进展良好,例如先进核潜艇
核潛艇的保密級別太高了,很難拿到可用來分析的資訊;不過從葫蘆島渤海船廠近年的瘋狂擴建可以得到即將批量爆發的暗示。
你是AI專業,對這一期《龍行天下》的討論有意見嗎?DeepSeek的Mixture of Experts恰恰是兩年前我討論過的可能突破方向,爲什麽美方沒有重視,你能回答嗎?
2025-01-19 11:40 回复
我先谈一谈我知道的事. MoE最早在上一代AI(统计机器学习)中就已被提出. 上一代的机器学习最终的成果是集成学习Ensemble learning. 理论已证明, 若干弱分类器(只需准确率略大于50%)可以通过集成学习变成一个强分类器, MoE就是集成学习的一种. 上一代AI主要擅长处理Tabular Data.到了这一代AI(深度学习), 当时还在Google的ilya sutskever首次提出将MoE作为神经网络中一个组件并进行尝试, 不过并无下文. 这个ilya sutskever, 就是2013年和他导师Geoffrey Hinton还有另一个学生在多伦多大学一起最早实现GPU运行多层的卷积神经网络的人, 卷积神经网络则是Geoffrey Hinton之前的博后学生法国人yann lecun所提出的. 因此, 这一代的AI, 深度学习(deep learning)实际上就是从他们开始实现起飞的. 由于能处理图片数据且效果惊人, 各大公司都来聘请Geoffrey Hinton, 据说连百度当时都来出过价. ilya sutskever拦住要去应聘的Geoffrey Hinton, 提议成立一家公司DNNResearch, 把研究成果当知识产权放进去, 让各大公司来收购. 最后Google出价最高, 收购后变成Google Brain部门, ilya sutskever就成了谷歌的员工.2015年, ilya sutskever离开Google和Altman等人一起创立OpenAI. OpenAI刚开始并不知道搞什么好, 中间还经历过Musk争夺控制权的事. 到了2017年, Google提出了Transformer模型, 反响巨大, ilya sutskever他们看到论文, 最后就决定投钱投人做自然语言方向, 从GPT一代开始一直做到第三代ChatGPT, 一炮而红.ChatGPT的爆红反过来又启发了另一波Google的员工. 2023年初, 法国人Arthur Mensch和他的其它两位大学好友不满中美两国搞AI热火朝天, 欧洲却毫无作为, 辞去Google的工作返回法国, 创立公司Mistral AI. 这家公司被马克龙和其它不甘落后的欧洲精英大力支持, 融了不少资金. 他们就把目光放到了MoE上. 到了2023年底, Mistral AI就推出了他们的AI, 成功的运用了MoE, AI模型的效率大大提高, 欧洲终于追上了美国. MoE的成功也很快吸引诸多同行采用, OpenAI没有公开架构, 但外界普遍推测采用了MoE, 当然也包括DeepSeek V2.到了今年初, DeepSeek V3成功推出. 前几天读了DeepSeek V3的技术报告后, 我目瞪口呆, 彻底死心. 这篇报告有上百的作者, 一共五十多页, 大方向的架构的确是是MoE, 但是有多达十几处效率改进. 我到现在才弄清楚一半细节. 这每一个效率改进的设计都足够发一篇中上水平的论文. 也就是说, 虽然大思路不变, 但是DeepSeek几乎把文献上能找到的, 提出的, 在每一个环节上可能改进效率的地方都做了优化"小"创新. 十几处改进累积下来就能有百倍的效率. 这个工作量已经远超过任何一个大学科研团队的能力, 只能是上百人的顶级工程师来做, 团队工程能力毫无疑问媲美OpenAI. OpenAI可是集合了美国本土加上世界各地人才, 而DeepSeek几乎只是中国大陆本土的工程师, 就能打赢. 所以Altman读了这篇论文后, 就在X上酸溜溜的暗示中国人不用尝试探索新办法, 只要汇总所有试过可能有效的办法, 然后往下改进就行了. 我可以想像他的绝望和精神崩溃,这怎么竞争得过中国人.现在回答你的问题, 为什么美国不重视做MoE? 美国怎么会不重视, 当然重视了, 美国从全世界招人才, 收购外国公司, 大学花钱培育各种创新, MoE实际上也是美国最先试验的, 后来是法国人也不甘落后尝试.无奈中国人太卷了. 每当事情发展到一定程度的时候, 中国人就能以卷王的态势碾压过来肝爆. 这件事情, 我看性质和台积电差不多.
好的,謝謝。我不是AI行内人,這些歷史進程的細節我並不熟悉,多虧你的介紹。
兩三年前我連MOE這個專業名字都不知道,全憑通用邏輯經驗,自己直覺想到概念,覺得它像是最優改進方向;現在中國把MOE的進步空間榨乾了,我想不出還有什麽其他點子能在AI Compute Efficient Frontier上節省兩個數量級的算力。你有建議嗎?當然,既然算力消耗與精確度的20次方成正比,節省兩個甚至十個數量級也遠遠不足以讓本世代的AI脫胎換骨、出現什麽本質上的提升,僅僅是決定商業競爭的勝負罷了。
2025-01-19 21:32 回复
正常, 这个领域毕竟还是聪明人多, 你想到别人也想到. 比如, 和开会的同行讨论自己几天前刚想出来的点子, 经常会有人说这个我早就试过了, 效果不行, 原因是XXX, 然后才知道难怪没人发论文. 而且现在不光是点子, 工程能力也是很重要的, 好的想法去实际操作, 需要软件工程师对GPU硬件特性非常熟悉, 钻研各种工程技巧. 有时候你也不清楚究竟是点子不对, 还是工程能力不够. 比如, 原先Nvidia对GPU上FP8低精度的计算有一些工程指南, 但是普遍都觉得训练很不稳定, 不可用, 多数都停留在BF16或者FP16(越低精度越节约内存, 但是精度下降可能导致不稳定). DeepSeek团队比Nvidia还懂GPU, 他们干脆扔掉官方指南, 自己摸索出来了FP8的计算办法, 在这点改进上效率差不多提升一倍. 拼效率的工作今后会转交给工业界去做了, 学术界已经无法竞争, 只能做验证新想法. 我这种在Directional University(无PhD项目, 没干活学生)混日子的更是不敢奢望了. 那么这一代AI还有没有挖掘的潜力? 我觉得应该还有一些可以榨取的地方, 但是我下面提到的一些想法, DeepSeek的已经或多或少用到一部分了. DeepSeek做的MoE版本和十几处各种工程改进, 本质就是为了节约内存. 同样数量的信息可以用更少的内存来处理, 反过来说, 就是同样内存的硬件可以处理更多的信息, 这样无论是训练还是之后拿来应用, 成本就能大幅降低. 换句话说, 想办法再进一步压缩一定数量级的信息, 那么大概还能收货同样数量级的效率. 顺着这个思路, 就能想到一些可能的办法, 比如说, 第一, 有没有数学功底好的从信息论角度研究一下怎么压缩训练数据? 理论极限在哪里? 此外, 人类之所以会进化出抽象概念思维, 很大程度是为了节约大脑算力, 一个抽象概念可以概括许多同类的事物从而避免重复. Large Language Model原来是一个token一个token处理的, 现在DeepSeek已经改进成多个token一起处理, 那么能不能再进一步, 干脆将整个句子缩成一个概念? Facebook就有人尝试使用Large Concept Model, 先把整个句子映射成一个向量表示概念, 然后处理, 输出结果再转换回来. 第二, 类似的, 信息的质量也是很重要的. 垃圾信息和教科书信息效果差很大. 这里的垃圾, 从广义上说, 也是蕴含的信息密度大不大. 微软的Phi系列AI模型, 尺寸很小, 但是训练数据使用质量较高的学校课本, 其训练出来的推理能力比更大的模型就强得多. DeepSeek就谈过英文数据的质量普遍要高一些, 毕竟国外互联网发展早, 中文通常要两倍数据才能达到同样效果. 那么这里就想办法去准备高质量的数据. 当然无法一一人工准备, 可以考虑使用已经训练好的AI来对数据按照某种方式进行整理, 然后整理后的数据训练新的AI, 再用能力提升的AI整理数据, 依次循环, 直到能力无法提高为止. 还有知识蒸馏knowledge distillation, 用一个训练好的模型作为Teacher, 将它学到的不同领域的知识直接对话喂给给多个更小些的专家模型, 这些专家模型集体决策等等方法. 当然, 有效的前提是每一次数据整理和蒸馏产生的新模型都比旧的更强一些, 这样可以把垃圾信息的水分挤掉, 算力不至于浪费在无关的信息上.
其實考慮到本世代AI的實用性遠遠大於氫動力、核聚變和量子計算所對應的零,它的從業人員在公共媒體上所作的進展預估是驚人的混亂和謙虛。一方面,這是因爲沒用的東西吹噓起來反倒沒有任何錨點,反正就是純粹詐騙,完全可以天馬行空,而AI卻真正以每年超出一個數量級算力提升的速度在持續發展中,行内人做預測很快就必須兌現,於是自然會猶豫矜持。另一方面,正因爲這個世代的AI進展太快,來不及深究理論基礎,必須當成純現象學來處理,頂多只能總結實際嘗試的經驗法則;再加上神經網絡先天是極度非綫性的,即便嘗試不出結果,也可能只是算力投入還不到Emergence threshold湧現臨界點,於是又憑空增添了很多不確定性。
我和你做這番對話的主要目的,是想要瞭解並預估未來幾年AI進展偏離Compute Efficient Frontier那條對數綫性關係的程度和機率;畢竟算力投入已經開始觸及資金和硬件技術的上限,這兩個主動變數都是可以準確估算的,那麽通過Efficient Frontier就可以簡單讀出本世代AI的潛力進程。你的介紹給我的印象是,未來幾年再次出現類似這次MOE的兩個數量級偏移的機率並不明顯大於1/2,出現超級突破的機率很小,基本可以忽略。那麽總結起來可以進一步推論,當前的中美競爭態勢基本鎖定,不會徹底翻盤重新開始競賽;換句話說,我在《龍行天下》節目中所做的“中方已經成功超趕”的結論應該會持續有效。
2025-01-21 09:25 回复
除了信息压缩角度, 模型架构上可能有进一步改进的地方, 但是要困难得多. 自然语言处理Nature Language Processing和计算机视觉Computer Vision是这一代AI发展的两个应用分支. 在CV上有个著名的生成模型stable diffusion, 可以按照用户指令生成逼真的图片. 一张600x800图片的像素大概是五十万, 如果按照NLP的做法一个一个输出token一样, 输出一个一个像素, 整个图片生成的过程将慢的无法实用. 所以CV模型结构都是放射状/树状的, 经过几轮输出, 画面从噪声中逐渐浮现出来. 能否将语言的生成过程也变成这样? 从序列一个个产生Token(花费时间O(N))变成同时多点产生Token(花费时间O(logN))? 好比要写长篇小说, 生成一个纲要, 然后同时每个写手写一部分, 这样生成的速度比一个个产生要快的多. 当然这个思路不能简单照搬, 因为一个词的信息量远比单个像素要多得多, 文字词语之间的联系可能要比图片像素间的联系更强. 大模型背后的原理仍然有待研究. 确实, 大语言模型本质上是概率猜下一个token. 但是请注意, 这只能用来解释Base model, 解释Instruct-tuned model所涌现出来的跟随指令的能力就有点牵强. 大语言模型就是通过给材料前面几个字, 尽量猜下一个字来训练模型. 但是这样训练获得的模型只是base model, 需要接下来再继续给与相对少量的问答数据训练. 精心准备的各种问答训练数据当然比未标注的海量原始训练材料少的多, 但是经过训练, 就能产生instruct-tuned 模型. 这个时候模型就涌现出神奇的特性. 能跟随各种指令完成对应任务, 有多功能性, 哪怕新指令之前并没见过. 为什么会有这种能力, 有很多解释. 可能人类的语言千变万化, 但背后的各种常见的"意图"总数是很有限的. 但是解释还是不够. 比如你可以给AI一段文字, 然后要求概括这段文字, 或者找出文中提到的主人公, AI也能一一完成, 这又怎么解释. 所以大模型并不完全是概率骗局, 当然也不是真的智能, 而是介于之间的一种其妙状态, 需要学界大力探索研究这种"涌现能力".
不过现在不光有大模型, 还有小模型. 小模型是我认为最有意思的地方. 大模型动则数百billion参数, 而开源社区很多非常性能不错的模型, 通常只有2 billion左右参数(占用大概4GB内存). 这些小模型就连普通人都能点击使用, 在笔记本电脑上就能安装运行, 如果不算笔记本的电费和折旧, 费用成本为0. 这就有很大的潜力了. 这些小模型当然不能做复杂的推理, 你问他怎么造光刻机肯定不知道, 但是能做很多常识性的工作. 这就为软件开发提供了全新的角度, 即所谓的Agentic AI. 注意, Agentic AI并不是AI Agent, 而指的是软件内部的逻辑由AI控制而非传统编程代码中的If语句控制流程的应用. 比如给你一段文字描述, 让你判断嫌疑犯到底该判什么罪. 这用传统软件就很难编写这样的应用. 但是有了小模型, 你可以调用它阅读文字并回答一些列问题, 比如"这段文字中的嫌疑犯是谁, 受害者是谁", "嫌疑犯和受害者之间有哪些互动事件", 以及查阅法律文书"重伤至人一级伤残的, 一般量刑在什么范围"等等一系列精心设计的问题, 然后根据不同结果进入不同流程, 最后得到一个结果, 比如 "判十年". 比较复杂的问题都可以进一步分解为多个小问题的流程, 这样哪怕能力有限的小模型, 也足以应付. 反正小模型几乎是免费的, 多调用几次没有成本. 这对于一些服务性行业, 例如金融分析, 会计审计, 法律, 医疗诊断等等就可能有很好的应用, 这些领域往往都有一些现成固定的套路和规则, 但是又不像物理那样可以用数学公式表示. 直接做成一个软件在你笔记本上跑一跑就能得到结果. 当然怎么设计需要工程师思考结合服务领域的知识. 如果创业公司能够先发, 找一个服务行业, 不断完善积累复杂的规则和流程, 那么这些商业机密就能逐渐建立护城河. 理论上, 经验丰富的奥数教练如果能够总结出奥数题目的常见套路, 那么照此精心设计的小模型很可能反而打败昂贵的大模型, 至少在解奥数题这一特定领域. 从经济角度而言, 如果是这样, 那么花了代价做大模型的公司恐怕赚不到什么钱. 在一个无差别的竞争中, 技术进步带来的收益都会进入消费者的口袋而不是发明人的口袋. 通过做大模型并向客户提供API调用的模式无法形成垄断点. 政府特许, 网络效应, 规模效应, 品牌营销是合法建立"垄断"的方式, 可以让自己和别人的产品形成差别. 但是, 大模型公司和开源社区有很紧密联系, 技术扩散的速度很快, 你有的你竞争对手也有, 这就能难形成"垄断", 很难再现社交网络,操作系统, 搜索引擎等等时代的盈利爆款. 这些大模型公司更像是互联网泡沫破灭前的卖光纤的公司, 而不是后来的在互联网上做各种应用最后成功的公司. 这也是一个很有趣的预言.
Okay,謝謝這麽詳細的討論。所以你也贊成“AI還沒有而且可能不會有商業利潤上的‘Killer App’(也就是類似Wintel那樣的壟斷寡頭)”這個論斷;而AI對人類經濟的貢獻直接消散給個別消費者和白領勞工,我覺得是一件大好事。
至於奧數,預賽還有些套路(資格賽套路更簡單,例如美國的AIME,2024年Open AI解題成功率達到23%,DeepSeek V3突破到37%,是其不只節約算力、在精確度上也超越美國對手的明確指標之一),世界決賽所用的都是那些數學系教授一輩子職業生涯中偶爾所得的巧合妙題,不是根據套路臨時發明的。本世代AI萬變不離其宗,既然不能如棋類那樣基於簡單規則、自己無限對下,那麽頂多就是相當於開卷考試、拿整個互聯網的所有Petabyte濃縮成超級小抄,這是不可能達到人類選手高度的。
2025-01-21 10:07 回复
哦那就简单了, 即便刨除概率估算(我是乐观认为本代AI最多还能挖两个数量级), 还有额外两条保证结论的有效性 (1)大模型技术扩散速度远远快于研发, 你会的, 我很快也会, 没有秘密武器 (2)大模型技术难以形成先发垄断优势, 对, 没有killer App
是的,博客不是技術刊物,探討AI固然照舊仔細搜集事實、以供嚴謹邏輯分析,論證的目標終究在於1)對人類社會的推進有多大;2)對中美博弈平衡有何影響。
2025-01-21 12:56 回复