82 条留言
Baruntse
2015-04-13 00:00
王先生,您好: 您的每篇文章,我都已经仔细拜读了,真是受益匪浅,所获良多。我是在美国生活了多年的来自大陆的人,对您描述的关于美国的一些现象觉得真是入木三分,非常的深刻。先生来自台湾,可能对台湾有些爱之深,痛之切的感觉,似乎稍显过于严苛,但这种心情也是可以理解的。您这个部落格,我是每天都访问数次,期待更新。每次看到任何更新,都是我一天的意外惊喜。多谢了! 我最为欣赏的,还是先生在推出结论之前的理性而严格的逻辑分析。和在大陆以及其它台湾中文网上铺天盖地的纯粹的情绪化的倾泄(有时给人的感觉就是当眾手淫)相比,先生的这份理性,逻辑和冷静实在是中文网的一块小小的净区和宝地。 另外一句题外话:先生对台湾的看法似乎一直比较悲观。但换一个角度,台湾能出先生这样的人才,前途恐怕就不会太悲观吧!
我人在美国,能帮台湾的也就是打打嘴炮。。。
王先生您好:
当初在中时部落格閒逛时,偶然发现您的部落格,拜读之下。觉得不推荐实在是很可惜,就把这里的网址转贴到另一部落格去,所以才会有一些其他地方的人士前来拜访。您的许多文章都可让我品味再三。非常感谢您让我得到不同视野与观点。
而您想说此部落格的主要对象是媒体记者及新闻从业人员,小弟认为其实对象应该是全体网民,我之前在其他的网站看到这一篇文章(浅谈讯息的鑑别
www.pcdvd.com.tw/showthread.php ),知道国内许多网路上的资讯,绝大部分都是有心人为了自己的目的而散发的讯息,现在台湾的新闻已经有很大一部分是记者向网路的资料取材,让许多民眾被特定人士牵着鼻子走。更有很多人对于网路讯息不加查证,直接转发。造成眾口铄金的结果。这情况若是没有改变,实在是台湾的悲哀。希望王先生能继续写作,让大家能知道更多的国外观点的资讯,感谢!
我也注意到这个照抄网络谣言的不良风气。两三个月前,我在读者迴响里把中时几篇离谱的军事胡扯文章痛批一顿之后,它的记者似乎收敛了些。 希望他们要抄也得抄有水准的文章。
我也觉得版主为文如果只是为了正面影响台湾的新闻从业人员, 那恐怕是缘木求鱼; 毕竟您不是发给他们薪水的老板. 另外, 我觉得台湾最大的问题还是在于上下都纠结于独统的出路这一点. 坦白说, 虽然理智上大家都不是傻子, 都知道逃不过统一的命运, 但心理上却不甘心命运操诸于人手 (因为严格讲, 台湾久居海外已有四百年的歷史). 这种矛盾讲得难听点, 怕是因为台湾人閒云野鹤, 舒服日子过的太久的关系. 无如, 早日谋断或许还可以因为正确的自我定位, 争取一些对方的尊重, 那绝对胜过目下的拖死狗, 甚至后来可能的糜烂. 所以在这一点上, 我认为不论蓝绿, 全台湾的人有一个算一个的都应予以棒喝; 因为自身定位不确定, 那一定失落漂离! 我离台来美已三十余年, 但还是念念不忘故土(我每年都回去), 总希望故乡能够与时俱进, 安祥康乐. 王先生肯定也是爱台的, 又博学慎思所论皆有所据, 所以希望在经营这个部落格时也能多多着墨于这个关键问题. 我知道初始的切入会很难, 但考虑到它触动的效果; 知其难而行之, 其不为厚重乎!
我也知道和台湾媒体讲道理,多半是白费口舌。但是两千万成年人,硬要当没有自制能力的五岁小孩;对五岁的熊孩子,我只知道两个办法:要嘛狠狠打屁股,要嘛等他长大。你说呢? 其实不论个人在统独上的偏好,只要用脑想想,就知道统独不是台湾自己能决定的事。当代台湾的悲哀,在于现实和逻辑摆在那里,整个社会却完全无视。我也只能尽力传播事实和逻辑。你若是有具体的建议,欢迎提出。
YST2000的文章有时私货多了点,应该是蓝营的铁杆。
leemz2002是第四代华侨,仍持中国(民国)护照,日本长期居住权,母亲是台湾的。此人的外曾祖父是台南人,曾祖父是泉州人,是同盟会大股东,学电子的。唯一遗憾的都是他在youtube上留言,没有自己专门写文章,但有些留言前后长达几万字。有许多论点都是重复的,是为了争辩而争辩,结果难免有瑕疵。
www.ltaaa.com/bbs/thread-131803-1-1.html大陆网友整理的 。
感觉大陆这边更愿意去了解世界,无数专门的小论坛,字幕组翻译各国影视剧,Game of Thrones在美国还没开播,这边已经偷跑出4集,有三家专门的团队分别制做,涉及到专业词汇或历史典故还做出解释。
是啊,大陆青年要积极、好奇得多,整体社会朝气蓬勃。台湾死气沉沉的,连书店都比以前少了,大家改行卖文具。生育率降到每个女人0.7个孩子,世界最低;这么自私的社会还好意思吹嘘自己的优越性,唉。
survivor
2015-07-03 00:00
王先生您好~ 最近才看到您的部落格,内容十分丰富个人也有很多收获,但是因为内容实在很多不易查询文章,若中时部落格有查询功能可供开放供开放那就更好,又文中常有其他参考文章可否以超连结方便读取,谢谢。
对不起,我只是中时的客人,对网站的功能完全没有发言权。 我已尽量指明链接,如果有遗漏,你可以留言提醒。
ming74210@sohu.com
2015-08-14 00:00
希望王先生可以在一个更大的平台上搞。比如facebook或者blogger。或者直接在新浪也许,因为王百度您的名字之后在百度上居然已经有您的贴吧。这证明中国的审核机构已经允许您的言论。
我管理这里的留言栏已经很花时间了。还是请大家移樽就教,在此集中讨论吧。
linmingrui
2015-10-25 00:00
从百度贴吧看到先生帖子追到这个格子上来,彻夜看完, 限于见识水平,很多东西看不懂,但是对先生高山仰止, 先生用朴实的文字深入浅出的讲解了天下大事,令我受益匪浅. 对于观察者网的事,先生不必介怀, 这种媒体有官方背景,稿件采用很多时候更趋向于政治任务, 况且媒体每日收到邮件无数,不见得有水平的编辑就看到了先生的邮件, 小子建议先生自建网站, 1. 先生文章日多,中时博客格局太小,页面简陋,使用不便,而且充斥广告以及垃圾信息, 先生写文章已是殚精竭力,还有处理这些简直是浪费时间,可以召集热心网友来处理这些信息, 先生则专心写作. 2. 所谓阴极生阳,现在整个台湾媒体简直是胡言乱语,先生单个博客势单力孤,如果建成网站,邀请有识之士一起发文, 更能增加声势,受众更广, 或能形成潮流,扭转大势. 3. 不仅台湾网友需要先生这样的有识之士,大陆的网友同样需要,这也就是为什么先生博客上的大陆网友比台湾网友更多的原因, 而且相对于观察者网这种天生有官方背景的媒体,天然的上位者的视角,网友更喜欢先生这样能直接的交流氛围, 但是现在中时的网站大陆需要翻墙才能看到,诸多不便,影响交流. 4. 先生自己也说过文章太散,难以出版,如果同样的一个主题,能有更多同道中人一起讨论发文,能让更加让人信服. 恰好我之前接触过网站建设,如果先生有用,我愿意去租用VPS,建立网站, 听先生驱策. 其实我认为现在台湾的状况,媒体有很大的责任,知道前天先生博客上看到原来各种媒体的背后都有同一个黑手存在. 我一直认为美国的FACEBOOK,TWITTER之类的社交媒体是比坚船利炮更加厉害的武器, 所谓的阿拉伯之春,乌克兰之变,以及占中等等,想必这些媒体立功不小吧, 还有今年的欧洲难民危机,很难说没有美国通过youtube等社交媒体的推动. 只是限于见识,难以了解更多,如果先生能用空撰文指教,不胜欣喜, 所以个人认为中共的网络防火墙(great fire wall,简称GFW),一直是最为高张远瞩的措施之一. 可惜很多人还自以为标榜民主,自由,殊不知这些媒体悉数操在美国手里,简直是达摩克利斯之剑. PS:中时博客的留言难用的令人发指...
中时博客的留言已经这么难用,你能想像发正文的麻烦吗?不过软体这种东西,用惯了就好,现在我有自己的一套习惯,先在Word里写好,再一次拷贝过去,也就懒得再改了。你若是要留言,最好也这样做,否则网页经常会重启,那么写过的东西就会消失。 现代大众传媒越来越偏颇,《观察者》已经算是最好的了,否则大家也不会都常去。不过前几个月,《观察者》先是写了一篇吹捧金立群女儿的文章,把一个靠关系进哈佛读书、再找到伦敦教职的庸才夸张成中国第一天才,后来又特别刊出金刻羽的经济评论,基本上是美国教科书的节录版,让我看得直摇头。这种拉关系人为造势来捧学术明星,是美国经济学的常态,Larry Summer就是如此成名的(他是Paul Samuelson的侄子;后来克林顿对金融放松管制,他居功甚伟,所以2008年的金融危机也可以算是他的杰作);中国既然自称是共產党,《观察者》又自诩是左翼,实在不该去搞权钱勾结的背后交易。
linmingrui
2015-10-25 00:00
看来先生比较少接触网络方面的东西, 实际上界面做的较好的网站文章系统用起来几乎能和WORD差不多了, 比如实时保存,比如自动保存引用图片等等, 中时下面这个留言板估计也就能写的下十几二十个字吧. 界面这么惨不忍睹,可以看出他们对这方面根本不重视, 看了下中时部落格的首页,看来这块他们只是随便挂着而已,管理操作都很少, 先生的博客是这里人气最高的了, 有人的地方就有江湖,什么交易都不值得奇怪,
我知道现在的网页上,已经可以完全复制Word的所有功能,但是中时的程式员要打混,我也无法可施。 当影视明星或政客的,这种造势是理所当然的本行。但是经济学者是所有政府幕僚中最重要的,他们的建议和执行,可以造成几万亿元的差别,这样塑造名不符实的声势就是埋藏核子地雷了。我有空再详述吧。
likethebest
2015-10-26 00:00
看了您的经历,早年从事高能物理,可是已经发展到了玄学阶段无法施展抱负,后来转向金融,服务于权贵利益集团,现在撰写文章分享自己的经验和灼见,“吃力不讨好”,却能对社会产生很大的积极作用。致敬!
我老是奇怪,为什么没有其他志同道合的人一起出来揭穿美国财团过去40年的劣迹。唉,现在也衹能教育一个算一个。
crztrader
2015-10-27 00:00
个人经验,转贴台湾mobile01,我的id被禁止发贴回帖,没理由没通知,转贴天涯,文章被删,没理由没通知。 两大论坛都有人不乐见。显然先生的事实与逻辑让乱臣贼子惧。
臺湾的鸵鸟心理太严重,被删我倒不意外。
evergrand
2015-10-27 00:00
观网连台湾名嘴郭正亮、黄智贤,还有很多学生的文章都能刊载,算他们有眼无珠,不识货︸_︸
我觉得他们的编辑有很强的趋炎附势倾向,在这方面和美国媒体并无不同。不过整体来説,还是值得去看的,希望不要沉沦太深。
evergrand
2015-10-27 00:00
说来不好意思;今年年初我送了一封毛遂自荐的电子邮件给《观察者网》,他们连回都没有回,应该是认为我远远不够格吧。\\ 几个月前我也把老王的文章节录和博客地址发给过观网的投稿小编,建议他们联系老王刊登,小编也木有鸟我::>_<:: 感觉真受伤啊{{{(>_<)}}}
多谢你的好意。
harryli0908
2016-09-17 00:00
王先生,您好,我是来自泰国的华人,自从去年发现王先生的部落格,利用工作时间之余,您的每篇文章我几乎都会阅读,而且反覆地读,每天都会用手机和电脑打开您的部落格,一有更新马上阅读。我主要关注于您写的军事、经济和政治方面,虽然我不是物理专业出生,但是我对物理很有兴趣,我阅读了您写的物理方面的文章,虽然有很多方面不是很懂,但也受到很大的启发。我对您对事物追求真相、逻辑与事实的精神感到钦佩。希望王先生能多保重身体,在未来也期望您的更新更多的大作。谢谢。
去年我在北市大给演讲的时候,听众也有些泰国学生。他们似乎对我所说的民主制度的先天毛病,有特别深刻的体验。 真正奇怪的是,臺湾人承受了20多年的乱象,却基本没有反思。
Taizi Huang
2021-11-16 11:37
王博士,请问您研究方法的特点是不是 1.容纳百万量级事实的数据库(人脑、电脑双重备份);2. 三十年来凝练出的数十个方向的研究框架(as simple as possible, but no simpler)?而且重要的是:上述两点是相辅相成的。所以您不像别人会开出一些必读书单,推荐的是The Economist和Foreign Affairs这样历史悠久的杂志,核心目的是从中获取大量的事实案例而非各家观点。如果确实如此,那么这个方法是可以被复制出来的。您的文章已经提供了这些逻辑框架,个人的事实数据库(fact database?)只需要耐心收集整理。经过多年的修炼,我想常人即便难有洞见,至少可以在现代社会中获得分辨真伪的独立思考能力。
你是打算用我的學習模式來創建一個AI系統嗎?那你必然知道這叫做Expert System,是最老的AI嘗試之一,並沒有什麽成果(因爲很難Scale?),不過或許他們的架構選擇不得法、硬件速度也不到位。你是否設想要和現代的深度學習結合起來做新的嘗試?
你的理解沒有錯,我的閲讀不只是完全不管作者的觀點,事實上是要用心剝離他們的主觀意見(誠實科學家的專業評論例外,但這樣的人很少,而且一樣必須小心過濾);這對AI可能是個大難題。學習過程中固然也會注意有趣的新思路,但世界上可能存在的思路方法數目原本就遠低於事實細節,經過幾十年的纍積,更加難以遇到前所未見的新邏輯,所以絕大部分時間,我看文章(即使是專業論文)都是儘快跳過邏輯論述,直接去找新觀察現象/實驗結果/内幕消息,所以才能每天掃描一兩百篇嚴肅的話題;如果遇到事實細節豐富、自己不可能全部記住的,再花一分鐘把它分類存入電腦的硬碟,供日後參考。當然這些“事實”,必須經過過濾,可疑的要另找佐證,如果找不到,就得加貼“存疑”的標簽;不過這類Bayesian算法,反而是AI領域日常的技能,你大概不需要我的囉嗦。
2021-11-17 06:42 回复
Taizi Huang
2021-11-17 09:50
和AI无关,但我有志与力将您的学习模式迁移到我自己身上,所以希望确认一些细节。受限于天分和机遇,这是一个充满挑战的尝试,所以我也早早设定下“分辨真伪、独立思考”这个下限。
好的。不過我自己從來不特意追求“獨立思考”,邏輯真相是什麽就是什麽,別人的主觀説法或許對或許錯,正確的理解或許是我自悟的、或許是學來的,都不要緊,只有客觀真假才是唯一標準。
2021-11-17 10:40 回复
闲聊几句: 现在 AI 处理自然语言的水平(以 2018 年Google BERT为例), 可以出色的分辨词语在不同语境下的含义差别, 例如 bank robber 和 river bank, 模型能够非常明确的根据上下文的联系知道前者是指银行, 后者是堤坝, 已经是相当令人印象深刻. 不过目前还只是 bag of words, 只能做内容主题分类或者评论者正面/负面意见的判断, 还没有真正做出结构化的精细模型, 要能够发展真正明白作者各种思路逻辑的 AI, 可能得再等十年吧.
我覺得這裏的差距不只是量的,更像是質的,所以2、30年比較合理。
2021-11-18 02:43 回复
要建一个王先生般的AI系统,恐怕也得要求AI像王先生一样做数学奥赛题(笑)。 恰巧最近学术界推出了一个数据集(https://github.com/hendrycks/math),专门测试AI做数学题的能力。用最好的AI加以训练,结果还是惨不忍睹(AI准确率6.9%,作为对比:一般PhD有40%,IMO金牌有90%)。这并不意外,推理演绎的确实现今AI的一大短板,数据量再大也只能学习相关性。
解數學題比分析大國博弈要至少簡單兩個AI主要世代(在Moore定律加持下,大約每30年一個世代):因爲前者定義明確而且範圍狹隘。
2021-11-18 02:41 回复
Taizi Huang
2023-01-05 19:39
王先生,您之前在八方论谈上面提到您“是唯一一个把社科议题当做数学题来解的人”。我最近才领悟到,您的思维方式和研究习惯,一言以蔽之就是——求真=解证明题。 这个习惯简单清晰却又深刻。我们只需要掌握解证明题的所有条件(而非所有事实细节),就可以果断下结论。分析问题也就变成了思考两个部分:1. 这个问题是可以证明的吗?2. 证明所需要的条件是什么?问题1划定了思考范围,专注于当前可以证明的问题。反之,如果一个问题是不可知的,那就不去过分纠缠。比如预测复杂/混沌系统是徒劳的行为,上帝的存在是不可知的等等。问题2需要花大量时间去积累,一方面搜集过滤事实,一方面建立完善逻辑框架。不断反问自己,当前的条件能解开这个证明题吗?知识分子也就可以定义成努力拓展可证明问题范围和尝试给出合理证明的人。 所以您经常给出精彩的证明,这是求真的魅力。比如您用陶哲轩和丘成桐为例,揭露了纯数学问题难做和学术腐化的事实。以对人类社会的实际贡献作为效用函数,这个领域已经式微。这个回复给我极大震撼,因为在此之前,“绝顶聪明人扎堆的领域会走向衰弱”是我不敢想象的命题。不过我目前的经验和思考,还无法完美证明这样的命题。但打上存疑的tag,是求真的第一步。 多引申一点,如果真有模仿此思维模式的AI系统,能解证明题是必要条件。
我自己對嚴謹的邏輯思維模式習以爲常,覺得理所當然、不言而明,反而沒有解釋得像你這麽清楚;這個總結應該對很多新讀者有幫助。
不過我必須補充,大部分的社科議題並沒有足夠的事實根據來做絕對肯定的結論,所以博客更經常示範了幾千次的,其實是基於Bayesian Statistics的機率估算。這是更高階(不過整體來看依舊是基本技能,和組織大規模邏輯結構然後形成完整的認知框架,顯然還有相當的距離)但相對模糊的分析方法,你既然已經掌握最基本的邏輯運作,可以在復習博客的過程中留意觀察相關的研究案例。
雖然Deep Learning AI的應用已經到了井噴的階段,但其本質仍然局限在類比聯想、然後歸納,只不過是比人腦高出許多個數量級的廣汎類比聯想罷了。要真正達到Sentient的地步,所差的正是上面兩個段落所討論的1)嚴謹的邏輯分析;和2)在無法達成100%結論的時候,做出持平而且精確的Bayesian估算。目前的技術只能替代工匠(例如畫匠和文字匠),過濾論述是做不到的(所以ChatGPT其實很危險,它只能接受並復述主流媒體的宣傳文稿,然後做簡單漂亮的包裝總結,結果必然是更方便昂撒體系對一般讀者做洗腦;不過話説回來,這不正也只是許多中國社科“學者”一輩子所能幹的嗎?),博客所反復示範的從第一原則出發做深層思考,然後進一步建立正確的認知架構,則更加遠超其所能。
2023-01-06 02:51 回复
好吧, 我极简短介绍一下ChatGPT(AI不是本博主题 多余可删). 这是过去四五年的进展在21/22年所结的果. 简单说主要是两样东西,一是一种叫transformer的技术及其后续发展非常成熟, AI可以用这个技术在相当大范围的上下文中, 主动注意到相隔很远的词语间的关联, 然后综合做出判断, 所以这就是为什么如今翻译和文字的生成都惊人的流畅. 二是contrast leanring 进一步完善. 所谓对比学习, 就是取出一对相似样本,然后要求模型学到他们的相似性.注意,相似样本选取非常宽松, 比如可以是视频相邻的两帧,不相似样本对比是任意取帧 .这样一来,根本不用再费人力去标注数据, 模型可以利用自身不同部分间的关联自行学习. 而且更妙的是相似样本甚至还能跨领域, 比如图片和他下方对应的文字标注.这样的数据在互联网上几乎是海量的 非常便宜,所以你可以看到很多输入文字自动绘图的AI. 这些进步使得AI的模仿到了惊人的地步,真是很了不起的进展,可以解放一些常规操作. 但是正如王先生所说, 这只是风格上的模仿,做写手和画匠,没有推理功能,其实谷歌比openai早就推出了更厉害的对话ai,但是担心负面效果不敢用到搜索引擎.至于推理, 有一个叫pathway的工作专门做数学定理的推理证明,不过那不是我的专长,我不懂. 希望这些简短介绍帮助读者快速理解关键性的事实, 节约时间而不必陷入细节
謝謝分享專業知識。
Transformer原本不是用在翻譯上嗎?這應該沒有什麽誤用的危險,爲什麽Google Translate還是一樣的差勁?是我主觀的苛求嗎?
Deep Learning本身就不含一絲因果考慮,所以要AI做邏輯思考,只能另尋路綫、從頭做起。我並不是說不可能,但最近的飛躍進展都是基於Deep Learning,那麽也就沒有理由對其能力所及之外的項目也盲目樂觀。
2023-01-07 02:13 修改
哦, 是这样, 首先, 虽然Transformer是谷歌2017年先发明的, 但是ChatGPT所用的模型GPT3在2022年已经是OpenAI(微软出钱)在此基础上衍生的第三代改进. Transformer有Encoder和Decoder两个部分, OpenAI的研究人员把论文中Decoder的部分拿出来堆砌, 到第三代已经比原始版本扩大了大约1000倍左右, 训练模型所耗用的算力花了1200万美元, 完全贯彻大力出奇迹, 推力大砖头都能飞起来的原则, 谷歌自己反而未必已运用新技术来更新它的翻译服务. 其次, Google和其它一些公司的AI研究部门和工程部门都是相对独立运作的, 前者部门更类似学校, 考核以发论文为主, 而工程部门的考核目标才是一般公司的考核, 所以AI部门搞出来的东西, 工程部门的人可能尚未计划部署这么大的模型在一个不怎么赚钱的业务上, 并花力气保证海量的并发访问. 我对AI搞数学证明推理的事情仅仅只是审慎乐观. Deep Learning最多只能起猜测作用, 它可以给搜索一些好的heuristic, 但是推理本身的严格性和验证, 肯定是靠其它基于规则的方法, Deep Learning本身只能起辅助. 目前还没有值得讨论的大进展.
Ok,that both clarifies and verifies matters for me.
當代AI技術的一大Irony在於Deep Learning所擅長的類比聯想,恰恰是一般人所說的“感性”,而其一竅不通的因果推演,則是“理性”;這和無數科幻和文藝作品的假設(“感情是人的核心本質“)剛好相反,也證明了博客素來的一個基本論述,亦即邏輯能力才是思維的最高體現,也是人類作爲宇宙唯一已知Sentient物種的標杆特質,無病呻吟的文人、嘩衆取寵的網紅、以及他們的聽衆粉絲其實是自願向低等物種退化的異類。
2023-01-07 03:28 修改
是的. 早期六十年代的AI重点研究了人的逻辑推理能力, 学者们(包括当时的很多科幻作品幻想的AI)都普遍假设AI会是人类理性的结晶, 但是现实却是困难重重, 缺乏数据, 研究进展缓慢. 学者们后来逐渐意识到, 推理和科学理性的能力对于人类是很晚才出现的, 动物通常不需要这么高级的推理, 仅凭借感官也能生存, 而且今日人类社会中也有相当活动凭简单的感性就可以完成, 所以顺序策略上应该先去研究低级的"感性", 一方面在实际社会的应用中获得经济回报, 另一方面进一步累积有用的相关数据, 然后才有可能逐步推动之后的逻辑推理AI的继续. 所以当前AI的研究, 反而研究的是人的"感性", 感性反而是最先容易实现的. 这恐怕会出乎多数60年代科幻作家们的预料. 此外, 仔细回顾AI这六十年以来的发展路程, 可以发现技术发展的路线确实是要先易后难, 先求有所实用的策略, 而不是一上来就要追求完美理想的目标, 发展迟迟没有进展, 很可能大方向上搞错了难易先后的顺序. 这个例子和王先生提到的许多技术发展话题可以互相印证.
是的。不過不止是60年代的經典科幻低估了邏輯思維的重要性和難度,現代的好萊塢和日本影視作品,也多的是以感情來定義人性的溫情價值觀論述;事實上感情是本能(避免飢餓、疼痛)之外最廉價、最低級的,基本所有群居的哺乳類動物都有感性,所以龍應臺之流因爲具有等同老鼠級別的思維能力而自鳴得意,居然還有一衆粉絲接受她對世界實際事務的胡扯,非常不合理。隨著Deep Learning技術的持續發展,我們可以預期藝術家級別的雕塑、作曲和詩詞創作AI也會很快出現普及;這是一件好事,因爲文藝領域的本質先天就不屬於真正的學術(社科才是,所以我一直說大陸教育體系把社科和文藝歸爲一類,是個嚴重的錯誤),而是嗜好意興引發出消費需求,是一種技藝;有AI能將這些技藝自動化,自然會消弭非理性的崇拜。畢竟既往社會因文字取士,與選舉知名運動員和演員來當總統的心理並無二致。
2023-01-07 07:15 修改
王先生在6楼的回复解答了我长期的一个猜测:即现阶段的Google Translate对原文的扭曲会导致需要更多的假设,从而无法满足王先生对逻辑推演的要求。所以王先生常提及不懂俄文而缺乏第一手资料。 至于ChatGPT不同于以往的语言模型,能生成“简单漂亮的包装总结”,我想其主要原因是OpenAI在训练模型的阶段加入了人对生成结果的偏好。换句话说,就是让人类标注者选择他们更喜欢的文字(只管喜好,不管事实),训练一个奖励模型让ChatGPT生成类似的结果。进一步想,若是媒体以此奖励模型针对目标观众优化ChatGPT,所生成的文字必然更符合观众的胃口,以此迭代的模型也会更极端。一旦OpenAI将这种语言模型开放给媒体,其洗脑能力会大大提升。这或许和王先生提起的自动程序交易机导致割韭菜有类似的效应。这种危险的确是不言而喻的。 最后,谢谢王先生没在半年前没把我拉黑。
Google Translate連在簡體字翻為繁體字的應用上都偶爾出錯,翻譯俄文必然會把Nuances(尤其是官場語言,例如Putin的演講)搞丟;俄方訊息必須是能説俄文、又沒有撒謊動機(排除了歐美記者群)的人翻成英文才能信。
我的小孩剛和我抱怨,同學的作業稿都是由AI復閲更改過的,結果把文章的Polish程度提到很高,導致助教對他的微小文法失誤扣分,很吃虧。
我其實很不願意拉黑的,只要有一點教誨成長的可能,連“大一統理論”都容忍了好幾年,不是嗎?
稍微離題。我的小孩一年前開始自發學俄文,所以也試圖閲讀有關俄烏戰爭的第一手報告。他今天才剛剛跟我說,自從上周Makiivka的俄軍宿舍被襲之後,官方和部分媒體的俄文戰報忽然風格一變,成爲烏克蘭式的浮誇胡扯;我們簡單討論以後,同意這應該是Putin震怒之下,若干俄軍將領卸責自保的掙扎。
2023-01-09 08:09 修改
pedagogicM
2023-01-24 13:06
在社科的研究和学习中,一直有一些困惑和担忧,特来向您请教。社科是求真的科学,但在大多数研究中,科学分析与事实论证被一分为二,一部分专注于数学模型的使用而忽略是否与宏观背景的匹配;另一部分只在乎事实可否验证假设而忽视逻辑合理性。当下社科研究大肆鼓吹量化研究,即执着于对假设的证明,而数学模型则是被认为最具实证性的工具,但为了把数据塞进模型则忽视了宏观背景中难以量化的中介变量与控制变量,最终推导出啼笑皆非的结论。
您的文章给我很大的激励和帮助,让我学到了一种新的研究方法和思考模式,文章中数据图表在证明上的使用堪称精悍。因此我斗胆想问,现在将社科人为划分为量化研究与质化研究是否本身就存在缺陷(都没有把求真当作第一要务),使得大量研究者在财阀以及学阀的扭曲下沦为“写匠”而不自知,现在AI与deep Learning在社会科学的滥用,令我担忧主流的社科研究可能走上了歧路,由于AI的类比而非逻辑,最终会让研究变成类似Foundation中的artificial religion,而社科的发展也将陷入犹如中世纪那样的停滞状态。
我對中國社科學術界不熟,不能確定你的描述是否精確,不過應用在1960年代後的美國社科界是完全貼切的。現代社科界量化分析的潮流始於經濟學,而其鼻祖是MIT的Paul Samuelson(亦即Larry Summers的伯父)。Samuelson本人雖然和Friedman同代,倒不像後者那樣是100%財閥代言人;他引入數學模型,似乎並沒有惡意,而只是爲了追求新奇、方便發表論文。然而即使是高能物理這樣的自然科學,脫離現實的數學模型(超弦是典型)一樣成爲無意義的玄學空談;社科議題絕對不對應著簡單的數學模型,那麽要在論文中建立後者,就必然要脫離現實。換句話説,自然科學裏的數學模型還有好壞之分,社科界也搞數學模型,除了教學和發假大空論文方便之外,不可能有實際意義。所以美國社科界在過去半個世紀極度追求量化分析,有兩個基本推動力:除了學人内發的“Publish or Perish”考慮之外,也有外來的資本財閥要腐蝕學術界的意圖。畢竟深刻正確的邏輯辯證,自然會揭穿新自由主義的謊言,那麽鼓勵學術主流去搞量化玄學,就是幫助抹殺淹沒實話的必要方向。
數學在社科的正確運用,在於統計資料庫的建立和過濾;這是因爲未被虛僞模型假設所扭曲的統計結論,是做任何邏輯分析的事實基礎。博客討論過幾個常見的統計悖論,但還有更多沒有提及的細節必須小心應用,因此若要建立龐大完整的Database,在學術人力的質和量上都有很高的要求。不過我所知的社科人物,都遠遠沒有足夠的統計學常識,完全談不上過濾數據;再加上收集資料一點也不Sexy,無法反復發論文,所以自然無人問津。很不幸的,獨立自主的資料庫,正是國際政治經濟話語權的基礎;任何基於西方資料庫的研究,必然會自動包含他們有意無意埋下的扭曲和偏見。我反復提倡中方重視這方面的投入,但中國學術界似乎同時兼有著崇外和論文至上兩個迷思,如果沒有最高層的强力糾正,不可能有所改變。
2023-01-25 01:19 修改
芳草鮮美落英繽紛
2023-02-10 06:16
先生分享的山姆大叔AI畫作很生動。我看了一段用AI製作繪本故事的介紹:先用語言AI產生一段故事情節,再用繪圖AI依情節作畫。AI的故事情節平淡無奇,但畫作倒是有模有樣。這表示AI在邏輯性較強的語言表述中要達到人類認可標準還遠,以類比聯想為主的繪圖取悅人類就容易多了,符合先生所說AI技術擅於感性創作。我自己也開始藉AI幫助獲得靈感,潤色語言,但不依賴AI解決問題(我的經驗是只要問題稍微複雜,花時間在AI答案中挑錯不如自己找出答案)。詩詞創作或許很快被AI攻克,但要寫作結構嚴謹的小說,AI應該還有一大段路。
《The Economist》讓ChatGPT去解高中數學題,只能做到1/3正確(亦即常見,所以網絡上有多重討論的1/3題目);然而用來寫企業研究報告,已經達到全美排名第一商學院Wharton School的水準,更別提龍應臺那類無病呻吟的散文,幾分之一秒鐘之内寫幾萬字,完全不在話下。你所提的長篇小説,難處在於敘事的邏輯結構,而不是文筆上的問題。
我雖然寫博客、上節目,但工作的本質並不是典型的傳媒,而是學術性研究。這裏的差別在於我用的事實固然來自閲讀(但不是方便的主流媒體,而是被昂撒體系有意淹沒的少數真實來源),分析卻是自己根據第一原則和嚴謹邏輯獨立做出的;如果必須引用別人的看法,和證據一樣,都會列舉出處。當代媒體網紅,即使有教授頭銜,依舊剛好相反,分析抄別人(但拼命掩飾抄襲),只有所需的證據反而是自己腦補編造的。想一想,做原創邏輯分析、和抄襲他人説法,哪一個比較難?AI可以替代的是後者,但選擇的唯一標準是量大,連人類網紅對優質内涵的有限理解都完全喪失,所以AI將抄襲、然後總結的工作,廉價化、普及化的社會效應是持續拉低大衆的愚昧、隨時間等而下之;願意並且能夠欣賞真正學術分析和事實真相的少數理性知識分子,並不會直接受到影響,但是和佔人口絕大多數的庸人,其差距隔閡會不斷擴大。這固然對選票制社會有立即的負面作用,對内宣薄弱、中層治理思維水平不高的中國,也不是好事。
2023-02-11 01:46 回复
芳草鮮美落英繽紛
2023-02-11 02:30
謝謝先生指點。我想到電視和智慧型手機的普及過程中,一開始是富人使用它們的時間多,等到真正普及後,變成窮人使用的時間多,富人反而節制了。我認為AI的普及也類似。將來很可能是下層家庭的孩子在生活與學習上大量依賴廉價AI,上層家庭則限制小孩使用AI以培養他們的獨立思考能力。這對階層流動性有絕對負面的影響,中國主管教育部門應及早做相應規劃。
你說的並非沒有道理,但我不特別擔心,這是因爲中小學的教程原本就只含學界和社會已有共識的結論,所以只要教育部不是異常地無能腐敗(然而這麽基本的要求也不一定滿足),AI所導致的偏見應該局限於整體社會共享的迷思。迷思的動力來源又分兩類:利益集團的推動,例如昂撒、學閥和商業吹噓,以及人類自然演化出的内發心理偏差,例如宗教(含中醫教和科技教)和流行(剛好看到這篇新論文https://link.springer.com/article/10.1007/s00265-023-03289-8,證明鳥類築巢也會追求新季的流行式樣,這顯然不是高等邏輯思維)。這些都是博客反復討論的問題,因爲是以小博大、而且逆天行事,可能必須有執政高層的理解才能解決。
2023-02-11 03:35 回复
王先生说到AI导致的偏见让我想到网上的一张截图,是有用户让ChatYuan(类似ChatGPT的国内产品)给一篇大会发言稿,它的回答有一段是“经济仍存在一些深层次的结构问题,如:经济结构不合理、增长乏力、投资不足、出口增长乏力、房地产泡沫严重、环境污染严重、能源消耗过大、就业压力加大、企业效益下降等”,然后这个产品就被暂停服务了。它的举例有的属实有的完全是屁话,这可能是技术不足导致内容不准确,也可能是本身中文内容就被外国媒体和代理人严重污染,而英文内容虽然也有利益团体的推动,但至少很少有国家级别的恶意污染
AI是個黑箱,爲什麽會做出某個特定的回答,連開發團隊都無法簡單回答,外人當然不可能確定。不過你所列舉的那些句子,不都是大陸所謂“經濟專家”和“財經新聞”慣用的空話嗎?反正對全世界任何經濟體都適用,誰管它是否和“結構”有什麽邏輯因果關聯?
2023-02-12 00:06 回复
Taizi Huang
2023-05-13 14:45
王先生,博客镜像的标签系统(在“博客搜索”页面)已经做好,可以选中若干标签做精确搜索。我想听听您的意见和建议,我再进一步做修改。
再次感謝。我最近精力、時間不夠,可能沒法去看;其他讀者有用後回饋,可以發言。
2023-05-24 02:42 回复
Taizi Huang
2023-05-24 12:46
欢迎读者志愿给博客的近万条问答添加标签(具体流程请访问https://github.com/taizihuang/wmyblog/blob/main/search/tag.md)。为方便国内读者编辑,标签数据托管在腾讯文档。
是的,請讀者一同分擔時間精力。
2023-05-25 05:37 回复
Taizi Huang
2023-06-17 02:03
王先生,想和您报告一下博客内容整理的情况: 1. 制作了《王孟源文集》初版。全书近800页,用LaTeX排版。问答部分后续会放上(把提问放在正文后,回答则放在附录中,如何?这模仿了教材中习题+解答的模式,符合博客传道授业解惑的风格); 2. 访谈文字稿接近完工。这里要非常感谢几位热心读者细心校对。文字稿精校完毕后也会放入《文集》中。如果您日后要引用,也很方便; 3. 问答标签化进度缓慢。我和另一位读者尝试用ChatGPT帮忙,但是因为AI并不能真正理解问答的逻辑,所以效果不佳。这是一个慢工,我也会继续优化打标签的步骤。有了标签,就可以把《文集》中相近的内容分类成册,方便读者更有针对性的学习。 《文集》和文字稿都托管在Google Drive: https://drive.google.com/drive/folders/1eg78LVciM913PhvRtsgtWV3VDLojynDA
謝謝;後世要參考我們在此的討論,可能得靠你們了。
2023-06-17 02:40 回复
pedagogicM
2023-06-25 22:47
关于AI,看到您最近在龙行天下的访台关于AI的话题。人类在未来如何精确的操控AI,让AI来完成工作绝对会成为一门学问,有种Isaac Asimov所著The Naked Sun一书中的既视感,未来有些人精通对机器人的操纵技术,在所有人都能使用AI的前提,他们将比普通人更会使用AI,甚至成为一个学科。
談這個話題,稍早了些。當前這個世代AI剛剛成熟到即將結成大批各式各樣商業應用的階段,還要幾年才能確認價值最大的方向,然後技術優化後的細節和局限固定下來又需要一點時間,再接下來才是用戶探索最佳使用技巧。ChatGPT走在最前,但不一定是最終最重要的應用。
2023-06-27 11:34 回复
rongbing mu
2023-11-08 23:17
请教王先生对AI危害人类的看法是什么?您在龙行天下里对当前LLM的局限性(成本,没有超人理性)十分准确。作为从业人员,我对AI的未来十分悲观,甚至不用达到智能奇点就可能造成深刻危害。1. LLM的训练和推理成本正在quantization, distillation, pruning, AI Accelerator摩尔定律下multiplicatively地降低。可以预见在不远的未来,当前要一个数据中心集群才能跑动的大模型,可以在个人设备上跑。模型的微调成本更是在各项技术下迅速降低。这代表基本上个人层面的开发和作恶基本无法监管。2. 目前对AI的控制仅是soft constraint,比如数据集去bias,RLHF向人类价值观对齐,把模型输出用另外一个模型来监管等。我们对智能没有原理上的控制,只有软的,抽象而且后知后觉的控制。这可能根本不是科学问题而是哲学问题;我们无法让这些黑盒子可靠地服从。3. 我们虽然对人类自己也没有根本的控制,但是人类的硬件是非常局限的。这些AI agent已经可以自我复制存储更新,编写代码更新自己,开个比特币钱包,在AWS里为自己购买云端的算力来微调拷贝。这种危机很有可能在AI比我们更聪明理性前就发生。目前research community有大量的让LLM使用external tools来智能自举的实验,有可能一个喜怒无常的”随机鹦鹉”只要在某次意外的实验下逃到了互联网上,而我们人类根本没有抓捕和监管它的能力。4. AI虽然目前无法胜任很多专业能力,但是在网上胡说八道打舆论战已经绰绰有余。已经有研究发现在LLM时代,互联网上混杂的合成数据已经影响到了抓取互联网数据的下一代模型。互联网上充斥的大量AI近亲交配产生的信息可能让人类社会和AI同时变笨。5. 人类社会由于巨大的利益关系,很难理性讨论这个问题。目前AI学术界也有Hinton和Lecun, Andrew Ng等人引领的不同观点。我看了一下反对AI危机论的观点经常有意识地攻击strawman来避免深刻地讨论监管的问题,比如说AI监管是大公司/China等抢跑垄断的手段。有效的监管在前提1成立的情况下甚至都很难做到了。
我理解你的論點,不過這個世代的AI還沒有能自主逃逸、演化的能力;換句話說,這類較高層的危險,在下一代技術被開發出來並成熟之前,還不真正存在。當前的問題,主要在於資訊混肴,也就是AI大幅降低了撒謊的成本,無限提升了造謠傳謠的規模和速度;所幸這是互聯網既有問題的升級延申,人類社會並不是沒有心理武裝的。
短期内我比較擔心的,是學術探討上的隱形依賴。寫作由AI來修飾當然相對安全,但搜集資料如果也摻入AI的hallucinations就糟糕了;尤其社科研究員,普遍沒有對AI技術的深刻理解,特別容易忽視這個問題。
長期的話,AI如果不能掌控實體物理機器,危害還只限於信息空間,否則就可以直接要人命。所以我即使在原則上也不樂意看到自動駕駛;然而以自由市場的規律,繼續開發直到大規模推行,基本是必然的結果。
還有,AI議題還是應該在【科技】類文章下討論。
2023-11-10 12:08 修改
rongbing mu
2023-11-09 02:17
我认为真正的危险在于目前兴起的LLM Agent这项技术,其思路为使用LLM来做high abstraction level planning,low level的execution则由各种外接程序执行,来解决复杂问题。您曾说过的chatgpt无法直接输出大数prime factorization的问题,在这个思路下则是LLM会在先在网络上搜索prime factorization的算法,再根据算法写一段可执行的script来得到正确答案。LLM仅考虑思路和每一步的输出是否合理。这里最著名的失控例子是OpenAI曾试验过让GPT4联网,GPT4想要登录一些网站却无法点击验证码,于是上craiglist发帖雇了一个人类来帮它点击验证码。我完全同意您对Deep Learning模型本身很难通过当前范式来诞生严谨的逻辑思考,可能在这个问题得到解决之前,LLM Agent就可能学会说谎,诈骗,使用基本工具(生成色情图片来往比特币钱包里募款,在github上传自己的模型权重,在云服务器里放置script)在网络世界里求生了。
在這個AI技術階段,你所描述的這些罪行,還不是它所能獨立做出的,必須由人工敦促引導。偶爾有一兩步主動行爲,拿出來談笑可以,並不足以完成高層次的策略構思和執行,這需要真正的理性邏輯能力,我們等著看下一代吧。
從人類社會的結構來看,當前的國際秩序連氣候變化都處理得磕磕絆絆,像AI這種危害有點虛無飄渺,功用卻非常有利於地緣戰略競爭的技術,是不可能被遏制的。除非美國霸權被徹底打倒,出現了替代他的强力大一統秩序,不會有真正的反思和作爲。但是以中國政府的保守個性來看,不一定有決心魄力能在國際上糾合印度這樣的特大號攪屎棍,强制做出這麽前瞻的統一政策。
2023-11-09 11:26 回复
举一个人人都能理解的简单例子,读者可以在ChatGPT输入,请问下列句子中第7个单词是什么(或者任意数字),然后接着随意输入任意一个句子。可以用中文或者英文,你会发现这么简单明了的事它经常出错。原因也很简单,因为它事实根本上没有理解“7”这个数字。在下一代真AI发展出来前,这代假AI实际的唯一危害,就是真会有人把它的胡说八道不假思索的当真.
是的。
他的論點有杞人憂天、語不驚人死不休的嫌疑;這條綫到此爲止。
2023-11-10 12:11 回复
芳草鮮美落英繽紛
2024-01-19 03:38
最近 Deepmind 的新論文 Solving olympiad geometry without human demonstrations ( https://doi.org/10.1038/s41586-023-06747-5 ) 宣稱,AI解奧數幾何題的表現達到金牌選手水平。我沒有能力評論其技術細節,單就結論來看,要不是說明AI真有部分高級思維能力,就是說明解高等幾何題也不過是【後註一】中所說基於簡單技巧的反復熟練運作。請教先生看法。
局限於歐式幾何,是這個世代的AI有可能做到的。這是因爲歐式幾何是個很小、很老、而且完全封閉的數學分支,只須要把五條公理以及總計不過三位數的Theorem和Lemma搞熟,就涵蓋所有内涵。那篇論文自己也説,真正的難關在於“Translation Challenges”,也就是如何將幾何翻譯為AI自己的語言,然後想法從少量的内涵引申設計出大數量的訓練資料。這基本類同象棋和圍棋AI(大約二位數的規則,多於歐式幾何的公理;難點同樣是翻譯和批量生產訓練資料),並不是從第一原則出發用邏輯去思考解題。
上個月有人舉例,ChatGPT連“下一句話中的第七字”都無法準確答復。這是因爲當初設計訓練的時候,沒有針對這類問題;如果有針對,當然可以解決。但這種特殊針對的訓練,本身高度依賴設計者的人爲安排,更別提非AI的普通程序早就可以做到,完全不算General Purpose Intelligence,依舊只是虛擬的模仿僞造。
數學解題對本世代AI之所以困難,在於後者的列舉/針對/涵蓋式思維不足以解決前者的高維度變量,全自動AI駕駛的難產也在於此(不過程度可能稍遜)。先局限在歐式幾何,就好比局限在停車場裏開車,成功的意義不大。
2024-01-19 06:30 回复
芳草鮮美落英繽紛
2024-07-27 04:03
最近一篇論文Language is primarily a tool for communication rather than thought ( https://doi.org/10.1038/s41586-024-07522-w 或直接下載:https://gwern.net/doc/psychology/linguistics/2024-fedorenko.pdf ) 回顧近期神經科學相關研究,結論指出語言並非人類思維的必要或充分條件,完整的語言能力並不代表完整的思維能力。我想這可為發展語言AI這條路並不一定能得到智慧這個論點提供佐証。
我贊同這個結論,亦即語言主要用來做人際溝通,私下自我思維不一定需要,而且因人因時因地,可以完全不用。例如我在做邏輯推論的時候,是不用任何語言的,只在要表達傳述的時候,才整理思緒、訴諸語文。又如大家做夢,一般是沒有旁白的。
至於AI的實用包綫,倒不只限於語文,只不過這個世代的AI需要極大量的訓練數據,然後又不具備真正邏輯,純粹是經驗估算,所以必然會有不小的出錯機率。剛好語文纍積資料最多,對精確性的要求也極度寬鬆,所以特別適合。
2024-08-23 05:46 回复
Taizi Huang
2024-10-01 02:52
在热心读者的帮助下,先生每一期的访谈都会转录成文字稿。我做了一份预览版《王孟源访谈》(https://drive.google.com/drive/folders/1eLq7tAwzfFbfsQbgb4nA7WzRbaSCLOxR),趁着国庆长假,让大家先读读看。内容我已经精校了 70%,剩余未精校内容主要涉及俄乌战争的内容,后续也会陆续整理完。
我代表全體讀者向你致謝。
2024-10-18 11:39 回复