2026/4/15 22:22:01
网站建设
项目流程
网站建设网站需要什么软件有哪些,建设软件网站,网站首页引导页模版,平面设计在哪里接单现在的大学生该选什么专业#xff1f;未来一百年的大学会是什么样子#xff1f;业界 AI 如此强势#xff0c;学界还能做什么#xff1f;谷歌在过去二十多年里做对了什么#xff0c;又有哪些遗憾#xff1f;
在斯坦福大学工程学院百年庆典的收官活动上#xff0c;谷歌联…现在的大学生该选什么专业未来一百年的大学会是什么样子业界 AI 如此强势学界还能做什么谷歌在过去二十多年里做对了什么又有哪些遗憾在斯坦福大学工程学院百年庆典的收官活动上谷歌联合创始人谢尔盖・布林重返母校与校长 Jonathan Levin 以及工程学院院长 Jennifer Widom 展开了一场对谈。布林于 1993 年进入斯坦福工程学院攻读计算机科学研究生。读研期间他结识了拉里・佩奇。两人共同开发了一种搜索算法并于 1998 年创办了谷歌。回顾谷歌的来时路布林坦言 8 年前提出 Transformer 时他们没有予以足够的重视而且因为担心聊天机器人说蠢话而害怕将其展示给世人。但他同时认为他们这些年也做了很多正确的事情比如投资研发 TPU 并建立规模庞大的数据中心。对于未来布林也表达了一些自己的看法比如认为大学未来可能不应该再限制于某个地理位置学界未来应该投身更具探索性质的研究材料等科研方向可能被低估了……以下是这场对话内容的摘录。Google 早期做对了什么学术基因、敢碰难题校长Google 已经是一家市值 4 万亿美元的公司业务范围极其广泛。你们这些年肯定做了很多正确的决定。有没有什么是你们在创建 Google 初期就做对的事情布林 我觉得早期的话Larry 一直非常有雄心。他现在也是。对你提出的每个计划他几乎都会说「这不够有野心」。我们确实很早就有了非常宏大的使命宣言 —— 整合全球信息。我认为这是创办公司的一个很好的理念基础。另外我们创建了一家相当学术化的公司。我和 Larry 都是从博士项目出来的当时很多创业公司是大学生创办的。我确实认为这会稍微改变你思考问题的方式。我们从早期就非常重视基础研发投入。校长我觉得有充分的理由说 Google 是过去 25 年全球最具创新力的公司。无论是产品创新还是很多重大决策比如收购 YouTube 发展视频业务、收购 DoubleClick 做广告、还有 Waymo。技术创新从一开始就很突出现在做芯片也是。大公司保持高度创新是很难的每个人都在这方面挣扎但你们做到了。很多人认为你个人在这方面有很大影响。你是怎么思考培育创新文化的布林部分原因就是敢于尝试。因为我们有学术根基可能更倾向于尝试困难的事情。进入过去十年左右困难的事情变得越来越有价值。以 AI 为例它所需的计算量、所需的高深数学这些都是技术上深奥且具有挑战性的问题。命运的安排使得这些在当今世界变得重要。曾经有一段时间你可以做 pets.com任何东西都可以加个.com。技术深度要求不高懂点网络就行。现在我们招的人比我当时要合格得多。我当时算是偏数学的计算机专业因为本科同时学了数学和计算机这在我那届比较少见。但现在我们从斯坦福和其他顶级项目招的人数学和计算机都很强还有很多物理学家因为物理学家必须做高深数学而且他们的很多工作受限于计算能力所以他们也需要计算技能。我觉得我们只是运气好在那个方向上稍微早一点就确定了方向。Transformer 论文发了我们却没当回事校长 谈谈 AI 吧。每个人都在关注它。你回到 Google 从事这方面的工作。你们在很多方面都处于前沿竞争非常激烈。投入 AI 基础设施的资本达到数千亿美元单个公司层面都是这样。你怎么看当前 AI 领域的格局布林我们确实在某些方面搞砸了 —— 我们投资不足大约八年前发布 Transformer 论文时没有足够重视。我们没有太当回事没有投资扩展计算规模。而且我们太害怕把它展示给用户因为聊天机器人会说蠢话。OpenAI 抓住了机会他们做得很好。这是非常聪明的洞察而且是我们的人比如 Ilya 去那里做的这些事。但我确实认为我们仍然受益于那段漫长的历史。我们在神经网络的研发上有很长的积累可以追溯到 Google Brain。这也有点运气成分。雇到 Jeff Dean 不是运气 —— 能得到他我们很幸运 —— 但我们当时就有「深度技术很重要」的心态所以我们雇了他。我们从 DEC迪吉多挖了很多人因为他们当时有顶级研究实验室。Jeff 对神经网络很有热情源于他大学时的实验。他 16 岁时就在做治疗第三世界疾病和研究神经网络之类的疯狂事情。他建立了整个团队。当时在我负责的 Google X 部门我让他做他想做的。他说「我们能区分猫和狗了」我说「好吧酷」。但你要信任你的技术人员。很快他们就开发出各种算法和神经网络用于我们的一些搜索功能。然后有人提出了 Transformer我们能做的事情越来越多。所以我们有基础有研发积累。确实有几年投资不足没有足够重视。但我们当时也开发了芯片TPU 大概有 12 年历史了。最初我们用 GPU可能是最早使用 GPU 的公司之一然后用 FPGA然后开发自己的芯片现在已经迭代了无数代。对深度技术的信任、获取更多计算能力、开发算法 —— 同时我们长期以来一直是计算的大投资者数据中心规模很大。除了亚马逊 AWS很少有公司有那种规模的数据中心、自己的半导体、深度学习算法等所有这些堆栈组件能够在现代 AI 前沿竞争。AI 会写代码了还要学计算机吗校长我们这里大约有 250 名学生很多是本科生相当多的人还没选专业因为斯坦福给本科生很大的灵活性。几年前我们可以预测大量学生会选计算机科学作为专业。你是否建议他们继续选计算机科学布林我选计算机科学是因为我对它有热情所以对我来说是很自然的选择。你可以说我也很幸运因为我正好在一个如此具有变革性的领域。我不会因为 AI 现在编程能力还不错就不选计算机科学。AI 在很多事情上都相当不错。编程之所以受关注是因为它有很大的市场价值所以很多人追求它。而且更好的编程能带来更好的 AI所以像我们这样的公司非常重视它。我们大量使用它来编程甚至用于算法创意。所以我不会因为 AI 擅长编程就转去学比较文学。说实话AI 在比较文学方面可能更强。我无意冒犯比较文学专业的学生但当 AI 写代码时有时候会犯相当严重的错误。而在比较文学论文里写错一句话不会有那么严重的后果。所以 AI 做一些创意性的事情其实更容易。未来一百年大学还会是现在这个样子吗校长今年是工程学院的百年纪念。如果你是院长要启动学院的第二个百年你会怎么思考布林我想我会重新思考大学意味着什么。我知道这听起来有点烦人 —— 这是 Larry 会说的那种话我会对他很恼火。但我们有这个地理上集中的东西有建筑有豪华的报告厅。但现实是现在信息传播非常快。很多大学已经上线了开放课程任何人都可以上网学习可以和 AI 聊天。那么拥有一所大学意味着什么如果你想最大化影响力限制在地理位置可能不会那么有效。当然湾区是个特殊的地方。但我不知道在未来一个世纪工程学院和大学的概念是否还会和以前一样。人们到处移动远程工作跨地域协作。这有点矛盾因为我们正试图让人们回到办公室我确实认为他们在一起工作效果更好但那是在特定规模下。如果你有一百人在那边他们不一定要和另外一百人在同一个地方。我越来越看到一些个人创造新事物不管有没有学位。虽然我们雇了很多学术明星但我们也雇了大量没有学士学位的人他们就是在某个奇怪的角落自己摸索出来的。我不认为我能神奇地给你新配方但我觉得这种形式不太可能是未来一百年的模式。大公司基础研究这么强学术界还能做什么学生提问 1Google 很大程度上源自您在学术界完成的 PageRank 研究。而在今天越来越多的创新由工业界主导您是否仍然认为「从学术到产业」的这条路径依然重要如果重要又该如何去强化它布林说实话我可能只能回答一句我也不太确定。我读研究生的时候一个新想法从被提出到真正具有商业价值往往要经历几十年的时间。在这样的时间尺度下学术研究是非常合理的你有足够的自由可以慢慢思考、申请经费、反复试验一个问题可以研究二三十年最后才慢慢「渗透」到产业里可能是被大公司吸收也可能变成一家创业公司。但如果这个时间被大幅压缩呢如果一个想法从出现到落地只需要几年甚至更短那这条路径是否还同样成立我觉得这是一个值得重新思考的问题。当然有些事情仍然是有意义的。即便是在 AI 领域我们也会持续关注斯坦福等高校的研究偶尔招聘一些研究人员或者展开合作。但很多情况下你很难说这些工作一定 “必须” 在学术界先酝酿很长时间 —— 比如某种新的 attention 机制可能在大学里实验两年随后就被带进了工业界。但问题是工业界本身也在做同样的事情。所以在这些方面学术界的 “先行期” 未必有特别不可替代的优势。也许在更激进、更底层的创新上情况会不一样。比如全新的模型架构、全新的计算范式。这类方向工业界虽然一旦决定投入就能扩展得非常快但最初的探索可能仍然更适合在学术环境中进行。量子计算就是一个例子。这个想法在上世纪八十年代左右被提出之后很长时间都停留在理论和实验室阶段。现在一方面有很多公司在推进量子计算的工程化另一方面大学实验室仍在尝试各种完全不同的实现路径。这类方向正好处在学术和产业的边界上。如果你提出了一种完全不同于主流路线的新方法 —— 比如既不是我们在做的超导量子比特也不是很多初创公司在尝试的离子阱方案 —— 那它可能确实需要在大学里慢慢发酵几年。这类问题非常困难也很冒险放在学术环境中是合理的。但一旦你真的确信它是可行且有前景的最终你大概率还是会把它推进到商业化阶段以某种形式进入产业。所以我很难给你一个明确、非黑即白的答案。因为现在的头部科技公司确实也在做大量基础研究而且在 AI 领域我们已经开始看到这些长期投入的回报。这意味着学术与产业之间的分工比例正在发生变化。但我仍然相信有些研究 —— 那种需要十年甚至更久、以纯探索为主的研究 —— 产业界往往是不愿意承担的因为它们的时间跨度实在太长不符合「上市时间」的逻辑。而这些可能仍然是学术界不可替代的价值所在。Google Glass 的教训别以为自己是下一个乔布斯学生提问 2 随着 AI 以前所未有的速度加速像我这样年轻有抱负的创业者应该采取什么心态来避免重蹈覆辙布林避免重蹈覆辙的心态当你有很酷的新穿戴设备想法时在做涉及跳伞和飞艇的炫酷特技之前一定要把它完全打磨好。这是一个建议。其实我喜欢我们当年在 Google Glass 上做的事情但那是一个以前犯错的例子。我试图在它足够成熟之前过快商业化在成本效益和消费者体验方面都没准备好。我有点操之过急以为自己是下一个乔布斯可以搞定这个东西。我想说的是每个人都以为自己是下一个乔布斯我肯定犯过这个错误。但他是一个非常独特的人。所以我建议确保你的想法在足够长的时间里得到充分发展然后才进入那个必须不断奔跑的阶段 —— 外部期望增加开支增加你必须在某个时间交付。你可能没有足够的时间做完所有需要做的事情。你会陷入一种期望滚雪球的状态没有给自己足够的时间来处理。这是我会尽量避免的错误。AI 的下一个前沿方向是什么学生提问 3我们看到很多 AI 公司通过扩展数据和计算来改进大语言模型。一旦数据和计算都用尽了你认为下一个方向是什么会是新的架构transformer 的替代品还是更好的学习方法比监督学习或强化学习更好的东西布林你提到的这些方向 —— 新架构、新训练方法 —— 在我看来其实早就已经比单纯扩算力、扩数据更重要了。只是因为扩算力太显眼了建数据中心、买芯片再加上 OpenAI、Anthropic 关于 scaling law 的那些论文很容易让人觉得一切进步都来自 scaling。但如果你仔细对比会发现过去十年里算法层面的进步其实跑得比算力提升还快。我读研时见过一张关于 N-body 问题的图 —— 就是引力系统里大量粒子相互作用的计算。从上世纪五十年代到九十年代算力遵循摩尔定律暴涨但真正让问题可解的是算法改进而且算法的进步幅度远远超过了算力增长。所以我认为像我们这样的公司当然不会放弃站在算力前沿但那更像是甜点。真正的主菜还是算法上的突破。院长我也补充一句。对算力不够这件事我们在大学里其实早就非常熟悉了。高校根本不可能拥有和工业界同量级的算力差距非常明显。但这反而逼着我们去做另一类创新在算力受限的情况下如何把事情做好如何用更少的资源做更多的事。这些研究我们已经做了很久而且会持续做下去。什么技术被严重低估了学生提问 4你们认为哪种新兴技术的长期影响被严重低估了布林显然我不能回答 AI—— 很难说它被低估即便从某种意义上讲它可能仍然被低估但它已经不算是「新兴」了。很多人会提到量子计算讨论它最终能带来什么。我个人也很支持量子计算相关的研究但要说这是我最有把握的答案其实也不是。这里面的不确定性太多了。从计算理论上说我们甚至都还不知道 P 是否不等于 NP。整个计算领域里还有大量最基础的问题没有答案。而且量子算法通常只对非常特定、结构性很强的问题有效。所以这一方向我很看好但要精准回答被低估其实不太容易。如果一定要说的话我可能会把目光投向材料科学 —— 无论是 AI 还是量子计算在材料领域的应用潜力都巨大。如果我们能创造出性能全面提升的新材料可能带来的变化几乎是无限的。校长我其实也在想材料科学这个方向而且正因为你提到了被低估这个词。现在关于技术创新机会的讨论非常热烈像聚变能源、量子计算这些方向其实已经得到了相当多的关注很难说它们被忽视了。AI 更不用说。但材料科学在我看来确实是一个被低估的方向。此外还有生物与健康领域 —— 尤其是分子科学层面的机会非常多正在发生一场不小的革命只是它们目前得到的关注度明显不如 AI。院长我正好想说同样的事情。我能明显感觉到「聚光灯」在不同领域之间移动而现在聚光灯几乎全部打在了 AI 上。但在此之前它曾经照在生物领域而这束光不应该熄灭。合成生物学里正在发生很多非常令人兴奋的事情。所以我觉得我们需要把这束聚光灯稍微拉宽一点。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】