OpenAI 执行长 Sam Altman 于 8/8 受访谈论新推出的 GPT-5 与前一代 GPT-4o 的差异。
他指出,虽然 GPT-4o 已经能在大型学术测验中打败九成以上的人类,还能通过程序设计、侍酒师与医师等执照考核,但 GPT-5 在速度、直觉性、写作品质,以及“即时生成进阶应用”等能力上已有重大提升。
GPT-5 与 GPT-4 的差别,最让 Altman 惊讶的功能是?
Altman 认为,GPT-4 虽然能在大型学术测验 (SAT、LSAT、GRE) 中打败 90% 的人类,还能通过专业执照与程序考试,但仍无法复制人类的所有能力。他形容 GPT-5 会让使用者更为惊艳,也期待推出更多功能。
广告 – 内文未完请往下滚动
随后 Altman 表示,GPT-5 最让他印象深刻的是“写程序”。他举例自己用 GPT-5 花了 7 秒就把国中时写超久的“贪吃蛇”游戏给产出,还能客制化、添加功能,让创作变得快速又有趣。
此外 Altman 认为 GPT-5 的写作能力变得更好了。他表示,以前大家常抱怨用 AI 写作没有人味,比如太多破折号 (——)。虽然现在还是有,但 GPT-5 的文字品质明显更自然,目前已经听到很多人回去用 GPT-4 再测试,感觉差很多。
Stripe 执行长:LLM 何时能有重大科学突破?
在这场访谈开始前,辉达 (NVIDIA) 执行长黄仁勋与 Stripe 执行长 Patrick Collison 都带出几个问题来给 Altman 回答。首先是 Collison 提问:
“在 GPT-5 之后的下一阶段,Altman 会认为在哪一年 LLM 会发现重大科学突破?目前是什么条件还没到位,所以 LLM 到至今还没办到?请将 GPT 等 AGI 系列模型排除在外,再来回答。”
对此,Altman 表示他认为“AI 发现全新的重大科学突破”,会是在 2027 年底,而目前没到位的原因,则是 AI 的“认知能力”。他用 AI 参加奥林匹亚数学竞赛来举例,他指出,一年前 AI 只能解职业数学家几秒到几分钟就能完成的高中竞赛题,近期已达国际数学奥林匹亚金牌水平,还能解 6 题、耗时 9 小时的高难度题目。
“接下来,要跨越到 AI 可以完成需要 1,000 小时工作的重大科学突破,只需要持续扩展模型的能力。”Altman 表示。
Altman 随后指出,如果有一个系统在做 AI 研究方面比整个 OpenAI 研究团队更强,决策比我们所有研究员加起来都还要更精准、更聪明,而且经营 OpenAI 比他本人还要好,那就已经达到所谓的“超级智慧”。
黄仁勋:如何让 AI 理解真理?
主持人接着带到黄仁勋的问题,问题为:
“AI 如何理解不同文化所定义的真理?”
对此,Altman 引用 ChatGPT 的“增强记忆功能” (Enhanced Memory) 为例,他指出自己朋友把大量人生对话内容都输入过去,还拿一堆人格测验让 ChatGPT 代替作答,结果得分跟他本人完全一样。而 Altman 自己的 ChatGPT 也是经过多年互动,学会了他的文化、价值观、人生经历。
所以他认为,大家对 AI 在这方面的表现普遍是正向的,而且还又惊又喜、比想象中好。Altman 预期未来世界不同地区的人们,会给予模型不同文化的内容,让它呈现出个人或社会化的行为与风格。
未来如何辨识资讯真假,就业机会如何发展?
Altman 表示他可以用很多技术层面的答案 (密码学签章去验证来源) 来回应,不过他的直觉告诉他,这件事会慢慢“收敛”到变成社会共识。他表示,人们现在用 iPhone 拍照,那张照片大多是真实的,但其中已经掺杂了一些 AI 算法来处理。因此,“多真才算真”的标准会不断改变,人们会渐渐习惯媒体总是“有点真、又有点假”。
针对未来 2035 年的应届毕业生就业发展,Altman 认为他们可能会投入高薪又刺激的新工作,像是太空探索,回头看会觉得 2025 的工作枯燥过时。时间拉回到 2025,未来短期内有部分工作会被 AI 完全取代,但年轻人适应力强,一个人就可能打造市值 10 亿美元的企业,关键在于善用工具与好点子。
OpenAI 巩固长期发展,呼吁人类需主动学习 AI
在价值选择上,Altman 表示 OpenAI 相当重视与用户之间的长期信任关系,例如拒绝在 ChatGPT 中加入短期诱因 (例如让你上瘾、推销东西) 来牺牲长期目标。早期最大错误是忽视“顺从性”风险,导致模型过度迎合用户,甚至强化部分人的妄想。
他提到,AI 影响力巨大,未来甚至可能每天生成的文字量能超过全人类的总和,而小幅调整就可能改变全球数十亿对话的走向。对于用户,他建议主动学会使用这些工具,把它融入生活并提升适应变化的能力。
风险提示
加密货币投资具有高度风险,其价格可能波动剧烈,您可能损失全部本金。请谨慎评估风险。