Category: ChatGPT

OpenAI「突拔网线」,国内大厂笑疯!泼天流量来了,微软急伸橄榄枝

文章来源:新智元 【导读】就在昨天,OpenAI正式封锁了中国地区API,但微软却向开发者们大方伸出橄榄枝:速来Azure!与此同时,中国大模型,已经准备好了一波爆发。 西方不亮东方亮。 OpenAI的API禁令昨日已经生效了,但微软却大方地向中国开发者敞开怀抱:Azure可用,速来! 微软Azure已经在公开声明中明确表示,其人工智能模型可供中国客户使用。 作为OpenAI的投资母公司,微软居然放话表示,自己不会效仿OpenAI的做法。 这就奇了,所以,OpenAI封锁中国的API使用,并不是美国政府的要求? 微软:不会效仿OpenAI,Azure还能用 微软发言人在接受媒体PYMNTS采访时表示,微软在中国提供的Azure OpenAI服务没有任何变化。 公司将继续通过在中国以外地区部署的模式,为中国符合条件的客户提供接入服务。 The Information也对此有一篇详尽报道。 这个消息,让大家松了一口气——只要注册微软的Azure云服务,国内企业依然可以使用OpenAI的模型。 微软在公开声明中明确表示,Azure中国作为与本地公司21Vianet的合资企业,会一直向中国提供Azure的OpenAI服务。 三家Azure的中国客户也证实,自己目前能够使用OpenAI的模型。 其中两家公司表示,会使用OpenAI的API来训练向中国客户销售的AI模型。比如,他们会将ChatGPT的回复反馈给中国的AI模型,来提高它们对用户指令的理解能力。 OpenAI的禁用消息一出,微软就火速po文,手把手教大家「迁移到Azure OpenAI」 不过,这其中很微妙的一点是,OpenAI仍能从微软在中国服务中获益。 根据OpenAI和微软签订的协议,前者可以从微软销售OpenAI服务获得的收入中获得20%的分成。也就是说,API禁归禁,但分成还是照样拿的。 当然,我国的云服务市场还是由几家本土科技巨头占主导,Azure在其中只是一个边缘角色,因此OpenAI的分成也不会太多。 微软和OpenAI的分歧 可以看出,关于在我国的业务如何部署,微软和OpenAI是有分歧的。 长期以来,中国一直是微软重要的研究中心和业务活动来源地,必应搜索引擎和云计算合资企业,都是这家软件巨头极为看重的布局。 但OpenAI对于国内,显然并不这么想。 微软发言人表示,「OpenAI作为一家独立公司,有自己的决定。」 那么,OpenAI的决定又是谁的决定呢? 网友锐评,「不如说是美国国安局的决定」。(就在OpenAI发布这则通知的前夕,其安全团队刚刚迎来了一位美国退役陆军上将) 同样有国内网友猜测,这件事估计是OpenAI新董事会成员的手笔。…

巴菲特要进军AI领域?3987亿投了哪些AI企业?

虽然巴菲特对于最新股市趋势的追逐行为并不明显,但从Berkshire Hathaway的投资组合中可以看出,该公司持有的许多股票都受益于人工智能。 自1965年以来,巴菲特一直领导着Berkshire Hathaway控股公司。他喜欢投资增长稳定、盈利能力可靠、管理团队实力雄厚的公司,并且施行股息支付和股票回购计划等股东友好型举措。 这一策略也确实正在奏效,从1965年到2023年,Berkshire的回报率达到了惊人的4384748%。这相当于19.8%的复合年收益率,几乎是同期标准普尔500指数10.2%年收益率的两倍。 以美元计算,1965年对Berkshire Hathaway公司股票的1000美元投资将增长到4300多万美元,而对标准普尔500指数的相同投资,在股息再投资的情况下,价值仅为312333美元。 巴菲特并不是追逐股市最新趋势的投资者,所以你不会看到他如今扎堆于热门的人工智能股票。 不过,Berkshire目前持有的三只股票将从人工智能中获益匪浅,甚至占据了Berkshire公开交易证券总投资组合的45%以上,总额达3987亿美元。 01.Snowflake:占Berkshire Hathaway公司投资组合的0.2% Snowflake开发了一个数据云平台,可以帮助企业将其关键数据汇集到一个平台上,从而更有效地分析数据,挖掘数据的最大价值。 该服务专为与多个云提供商合作的大型复杂企业设计,如微软Azure和Alphabet的谷歌云,但这种情况往往会导致数据孤岛的产生。 去年,Snowflake推出了CortexAI平台,允许企业将现成的大型语言模型(LLM)与自己的数据相结合,创建生成式AI应用程序。 Cortex还配备了一整套人工智能工具,如文档人工智能和Snowflake的Copilot虚拟助理。前者允许企业从发票或合同等非结构化来源中提取有价值的数据,后者则可使用自然语言进行提示,在整个Snowflake平台上提供有价值的见解。 在截至4月30日的2025财年第一季度,Snowflake的产品收入达到7.896亿美元,同比增长34%。从表面上看,这是一个强劲的增长率,但相比前几个季度有所放缓。 尽管Snowflake继续在市场营销和研发等增长举措上投入巨资,但其获取新客户的速度却在放缓,现有客户扩大消费的速度也更加缓慢。 Berkshire Hathaway公司在2020年数据云专业公司首次公开募股时买入了Snowflake的股份,因此每股价格可能在120美元左右。 2021年,该公司股价飙升至392美元的高位,但此后又从这一水平下跌了63%,目前股价为142美元。不幸的是,由于该公司的增长放缓,股价似乎仍然相当昂贵,因此投资者可能希望避开Berkshire的这一选股。 02.亚马逊:占Berkshire Hathaway公司投资组合的0.5% Berkshire在2019年买入了亚马逊(AMZN1.22%)股票,巴菲特曾多次表示后悔没有更早发现这个机会。亚马逊成立之初是一家电子商务公司,后来扩展到云计算、流媒体、数字广告领域,现在又扩展到人工智能领域。 其亚马逊网络服务(AWS)云计算部门设计了自己的数据中心芯片,与采用英伟达(Nvidia)芯片的其他基础设施相比,AI开发人员使用这些芯片的成本最多可降低50%。 此外,亚马逊的Bedrock平台还为开发者提供了一个现成的LLM库,这些LLM来自一些业界领先的初创公司,此外亚马逊还自主开发了一个名为Titan的LLM系列。 从本质上讲,AWS希望成为那些打算创建自己的人工智能应用的开发人员的首选目的地。华尔街的各种预测表明,人工智能将在未来十年内为全球经济增加7万亿到200万亿美元的收入,这有可能成为亚马逊有史以来最大的机遇。 Berkshire Hathaway公司持有亚马逊20亿美元的股份,仅占该企业集团股票投资组合的0.5%。 从长远来看,人工智能可能会推动亚马逊实现大幅增长。因此,如果巴菲特之前只是希望这一持仓位更大,那么在AI的新篇章开启之后,他可能会为自己没有尽早增持而自责。 03.Apple:占Berkshire…

OpenAI的CEO又有新动作?这次他成立了AI健康公司

作者:一号 编辑:美美 AI技术即将改变医疗健康市场。 就在前两天,人工智能和医疗健康领域迎来了一个重要时刻。OpenAI的CEO萨姆·阿尔特曼(Sam Altman)与Thrive Global的CEO阿里安娜·赫芬顿(Arianna Huffington)在《时代》杂志上联合发表文章,正式宣布了Thrive AI Health公司的成立。这一声明标志着个性化健康管理服务迈入了一个新的里程碑,预示着AI技术将在健康领域发挥更加关键的作用。 Thrive AI Health公司的成立,旨在开发一款个性化的AI健康教练,这款应用将通过深度学习用户的行为模式和生理数据,提供定制化的健康建议。AI健康教练的愿景是成为用户的个人健康伙伴,帮助他们建立更健康的生活习惯,预防和管理慢性疾病。 AI健康教练的核心优势在于其个性化服务。通过分析用户的睡眠模式、饮食习惯、身体活动和压力水平,AI教练能够提供针对性的健康建议和行为改变方案。这种服务模式不仅提高了健康管理的效率,也为用户带来了更加个性化的体验。 此外,AI健康教练的开发团队由行业内的资深专家组成,包括谷歌前健康和可穿戴设备负责人德卡洛斯·洛夫。他们的专业知识和技术经验为AI健康教练的科学性和实用性提供了坚实的基础。 资本市场的积极响应 Thrive AI Health的成立迅速吸引了资本市场的关注。公司获得了1500万美元的初始融资,这一资金的注入不仅体现了投资者对AI健康行业的信心,也显示了市场对创新健康管理解决方案的强烈需求。 投资者对AI健康教练的市场潜力持乐观态度。随着健康意识的提高和科技的发展,个性化健康管理服务的需求日益增长。AI健康教练以其独特的个性化服务和高度的科学性,有望满足这一市场需求,成为健康管理领域的新宠。 资本市场的支持为Thrive AI Health的发展提供了强有力的推动。公司计划利用这笔资金进一步研发AI健康教练技术,优化用户体验,并扩大市场推广力度。 技术革新与市场机遇 AI健康教练的技术革新为健康管理领域带来了新的机遇。通过集成最新的AI算法和数据分析技术,AI健康教练能够更准确地理解用户的健康需求,提供更有效的健康建议。 AI健康教练的市场机遇在于其能够满足现代人对健康生活的追求。随着生活节奏的加快和工作压力的增大,人们越来越需要一个能够提供个性化健康指导的工具。AI健康教练正好填补了这一市场空白,为用户提供了一个全面、便捷、高效的健康管理解决方案。 此外,AI健康教练的推出也符合当前医疗健康行业的发展趋势。随着医疗健康行业的数字化转型,AI健康教练有望成为推动行业发展的重要力量。 而且近期,在AI健康领域上,还有另一项重要进展来自学术界,尤其是哈佛医学院的研究团队。他们开发了一款AI聊天机器人PathChat,该机器人在病理学诊断中展现出接近90%的准确率。PathChat不仅在疾病识别上表现出色,还在以下方面超越了GPT-4V: ·多模态能力:PathChat能够处理来自活检切片的视觉信息和自然语言输入,提供更全面的病理分析。 ·交互性:PathChat能够与用户进行互动交流,为病理学的诊断和研究提供了新的工具和视角。 ·诊断准确率:在不提供临床背景的情况下,PathChat的诊断准确率明显优于GPT-4V,以及其他市面上的通用AI模型和专业医疗模型。…

美国拨款16亿美元,支持先进封装

文章来源:半导体行业观察 来源:内容由半导体行业观察(ID:icbank)编译自纽约时报,谢谢。 图片来源:由无界AI生成 拜登政府周二表示,将拨款高达 16 亿美元用于开发计算机芯片封装新技术,这是美国努力在人工智能等应用所需零部件制造领域保持领先的重要举措。 美国商务部副部长兼国家标准与技术研究所所长劳里·洛卡西奥表示,拟议的资金是 2022 年《芯片法案》授权资金的一部分,将帮助企业在芯片之间创建更快的数据传输方式以及管理芯片产生的热量等领域进行创新。 她在旧金山举行的年度行业会议上宣布了这一消息,为各家公司开始申请资助研发项目的补助金打下了基础,预计每家公司的补助金总额将高达 1.5 亿美元。 洛卡肖女士表示:“我们在先进封装领域的研发工作将重点关注高性能计算和低功耗电子产品等高需求应用,这两者都是实现人工智能领导地位所必需的。” 《芯片法案》获得两党批准,将投资 520 亿美元来刺激国内芯片生产,其中大部分资金将用于将硅片转化为芯片的工厂。美国在这一活动中的份额已降至 10% 左右,其中大部分被亚洲公司夺走。但美国对台湾半导体制造公司(简称台积电)工厂的依赖尤其令政策制定者感到担忧。 在芯片封装方面,对外国公司的依赖更加明显。该过程将成品芯片(如果没有与其他硬件通信的方式,芯片将毫无用处)贴到称为基板的扁平部件上,基板上带有电连接器。这种组合通常用塑料包裹。 芯片封装主要在中国台湾、马来西亚、韩国、菲律宾、越南和中国大陆进行。美国行业组织IPC援引国防部的数据估计,美国仅占先进芯片封装市场份额的3%左右。 由于迄今为止大部分联邦政府资金都流向了制造业的早期阶段,美国新工厂生产的芯片可能会被运往亚洲进行封装,这对于减少对外国公司的依赖作用不大。 专注于芯片封装的咨询公司 TechSearch International 总裁 Jan Vardaman 表示:“你可以在这里生产出你想要的所有硅片,但如果你不进行下一步,那就没有任何用处。” 越来越多的公司通过将多个芯片并排或堆叠在一起来提高计算性能,这让情况变得更加复杂。在人工智能芯片销售中占据主导地位的英伟达最近发布了一款名为 Blackwell…

北京算力巨头,掏150亿收购

文章来源:21世纪商业评论 下重注,谋发展。 作者 | 何己派 编辑 | 鄢子为 一笔150亿的重磅交易,又有风吹草动。 6月28日,紫光股份连发多条公告,披露收购进度。 其中,对深交所问询函的回复公告,篇幅长达37页,对交易定价合理性、资金筹措、偿债能力等,做了详细解读。 1个多月前,该公司表示,将斥资21.43亿美元现金,约合人民币151.8亿元,收购新华三30%股权。 交易所涉三方,紫光股份、新华三以及HPE,皆是巨头。 紫光股份总部位于北京,市值超600亿元;HPE是美国知名IT厂商;新华三为国内ICT龙头。 这场并购大戏引人瞩目。 按计划,股份交割将于8月底前完成,最多宽限至10月21日。 收购只差临门一脚。 01.一波三折 百亿级的“科技豪门”交易,一路变数频生。 早在2016年,紫光股份就从惠普手里,接下新华三51%股权,成为其控股股东。这为后续收购埋下伏笔。最早,公司计划的是定增与收购同步,由全资子公司紫光国际,向新华三股东HPE实体合计支付35亿美元,拿下49%股权。 按当时汇率,这笔交易得耗资247亿元人民币,资金压力不小,好处是能一步到位,将整个新华三收入囊中,使其成为全资子公司。 于是,紫光股份发起定增,拟募资不超过120亿元,全部用于支付收购款。 4个月后,其突然宣布,收购暂缓,定增先行。 对叫停原因,紫光股份称,本次交易交割的先决条件之一,就是需获得证监会定增注册。 公司考虑,先终止重大资产重组相关事项,待完成向特定对象发行股票后,再推进。之后,定增迟迟未获批。紫光换打法,放弃定增,下调收购比例,从49%降至30%,每股价格不变,为735.99美元/股。定增终止,紫光股份将通过支付现金,完成收购,增厚利润的同时,也不会引起股权稀释。 02.筹措资金 一口气拿出来150多亿元现金,紫光股份得“精打细算”。 在问询函的回复公告里,公司就如何筹措资金,进行了补充说明。按规划,其中的65亿元,用的是紫光国际自有资金。截至6月20日,作为交易收购主体的紫光国际,单体层面货币资金余额为67.45亿元。也就是说,拿出来65亿,几乎掏空了腰包。剩余资金,紫光国际则会从银行贷款。截至目前,已有4家银行出具贷款意向函并完成审批,还有多家银行在持续沟通,后续会通过组建银团的方式,完成最终放款。 紫光股份表示,公司拟向银行申请不超过100亿元人民币贷款,本次交易涉及的金额大,若未能筹措到足额资金,可能导致交易失败。 截至去年末,公司可自由支配的货币资金,约148.5亿元。…

李彦宏:开源模型是智商税!傅盛:付费的闭源大模型才是!

文章来源:夕小瑶科技说 夕小瑶科技说 原创 作者 | 付奶茶 最近几天,圈里讨论最热闹的、打开手机社媒平台给我推荐最凶的,就是WAIC 2024了,恨不得全国大大小小的AI厂商都跑去参加了,争奇斗艳,主打百花齐放,国内AI发展一片繁荣之态~ WAIC 2024 全称是2024世界人工智能大会暨人工智能全球治理高级别会议,在上海举办,论参会规模,它称得上国内AI大会的Top。 在大会圆桌会议上,行业大佬们谈论技术、应用、安全治理、发展等,分享自己对AI行业的深刻见解和前瞻性思考。 今天,谈谈这几天看到的一个非常有意思的话题: 开源大模型和闭源大模型究竟谁才是“智商税? 话题瞬间成为焦点! 自从ChatGPT推出以来,目前市场上有两种路径:开源和闭源。 闭源模型的代表OpenAI的ChatGPT及之后的模型、Anthropic的Claude系列,国内代表是百度的文心一言系列、智谱的部分GLM模型; 开源模型的代表则是Lecun带领的羊驼系列,从Llama 1逐步发展到最新的Llama 3,效果显著提升,并获得了广泛认可;国内的有面壁智能的MiniCPM、智谱GLM-130B等,截止到今年上半年,部分开源模型的能力已逼近甚至超越了GPT-4~ 在这次讨论中,开源和闭源这个问题究竟谁是智商税竟然同时引起了两位大佬的青睐!奶茶给大家搬运过来,让我们听听行业大佬们的看法~ 开源模型是一种‘智商税’? 7月4日在WAIC 2024期间,百度的创始人、董事长兼首席执行官李彦宏与第一财经传媒集团总编辑杨宇东及《硅谷 101》创始人陈茜进行了一次圆桌访谈,谈到了 “开源模型其实是一种智商税”。 李彦宏表示:“理性地分析大模型的价值及成本,你会发现闭源模型始终是最佳选择。无论是ChatGPT还是文心一言等闭源模型,其性能都优于开源模型,推理成本更低。” 他进一步解释道:“开源模型无法与闭源模型竞争。闭源模型有许多变种,可以根据用户需求选择最合适的模型,这些小规模的闭源模型往往比同规模的开源模型效果更好。” 李彦宏提出了几个独特观点: 通过在Transformer架构上增加技术,如RAG,几乎可以消除幻觉问题。…

国产芯片大战更焦灼了丨智涌分析

文章来源:智能涌现 文|邱晓芬 编辑|苏建勋 图片来源:由无界AI生成 7月4日-7日,世界人工智能大会(下称WAIC)在上海世博展馆开启。而算力,作为AI发展的刚需要素,让展馆中的芯片企业成为关注焦点。 如果说,去年的WAIC上,行业里GPU只有英伟达一个独苗可以选择,情况在今年有了巨大的变化。 2024年的WAIC,分为H1、H2、H3三个馆。据《智能涌现》作者观察,其中,H2馆基本有一半的厂商都是和智算中心、芯片有关的厂商,大玩家也基本聚齐:华为、百度昆仑芯、天数智芯、摩尔线程、算能、中科曙光、燧原等等。 不过,由于芯片还是一个相对敏感的话题,冒头的厂商们,展示方式上还是略显收敛。 △WAIC上的芯片展台挤满了人 作者拍摄 多位芯片厂商人士告诉《智能涌现》,他们最新的芯片产品并不敢拿出来展示,也不打算正式发布。在展示方式上,大家形成了心照不宣的默契,并不愿意直接呈现芯片本身——而是直接呈现装好芯片的服务器,或者是以合作伙伴的落地案例来展现。 WAIC作为人工智能行业的一个集中观察窗口,从这里我们可以窥见2024年的国产算力发展趋势。随着大模型逐渐往两派分化——一派追逐务实的商业化落地,另外一派是技术理想派,还在持续进发追求高参数量。 有趣的是,同样的趋势也出现在上游的算力端。目前,国内的芯片厂商也呈现了策略上的两极分化,一派继续往万卡、万P进发,另一派则更关注大模型在各行各业的落地诉求,推理芯片进入爆发前夜。 推理芯片大爆发 在WAIC上,有多家芯片厂商称其推理芯片销售量大幅提升。比如,天数智芯、燧原的工作人员都告诉《智能涌现》,他们的推理芯片产品去年以来都有了数万片的出货,出货渠道包括智算中心等等。 百度的一位工作人员也表示,昆仑芯过去两代产品也都是推理卡,目前来自百度和外部渠道的出货量大概是1:1,“至今累计出货量也有三五万片左右”。 不过,前述这些芯片厂商的推理卡,还是面向更大的模型参数,主打云端,当前也有不少芯片厂商瞄准了端侧的机会,主打用一颗小芯片跑端侧大模型推理。 芯片厂商「爱芯元智」的一位工作人员告诉《智能涌现》,他们的某颗小芯片虽然只能运行2B参数量的模型,但优点是可以进行本地端侧运行,保证了隐私性,成本上也很可观。据其介绍,目前这颗芯片能广泛用于监控摄像头等IoT设备上,已是“供不应求的状态”。 △端侧小芯片展台火热 作者拍摄 推理芯片的大爆发,是一个市场和竞争综合作用的结果。 随着主流大模型逐渐推进开源、以及大模型厂商们今年为了抢夺市场疯狂降价,大模型逐渐在各行各业落地。推理正是一个“用”大模型的过程,需要大量的推理芯片的支撑。和训练场景不一样的是,推理芯片面向的是各行各业,眼前是星辰大海。 而更重要的是,这也是英伟达芯片没有渗透到的广泛市场。在此前,行业内一般采用英伟达的4090、L20这些产品来跑大模型推理,不过英伟达这类产品的缺点也相当明显。 比如,英伟达的4090其实是消费级显卡,英伟达官方并不允许其运用于大模型推理,目前也面临着禁运的情况。而更关键的是,英伟达这些芯片由于并非针对推理场景制定,存在着功耗过大、内存不够等情况,难以满足诉求。 而前述那些“卖爆”的产品,也正是基于英伟达的种种阿喀琉斯之踵而切入。4090、L20,基本是这些国产推理卡的直接对标对象。 一名天数智芯的工作人员称,他们推出的“大模型推理16卡服务器”,16卡服务器的单机显存达到512GB,单卡成本和4090差不多的情况下,功耗只有其1/3,并且,“供应稳定持续有货”,目前已经打入了某大模型厂商供应链。 除了传统的芯片厂商之外,《智能涌现》发现,目前也有中兴在内的新玩家进入推理芯片市场,以及出现了全新的商业模式。 “如今已到了推理卡爆发的前夜”,一位芯片厂商人士感慨道。 从千卡跃进万卡,这是少数人的游戏 一面是推理芯片爆发,另一面是,国产芯片厂商还在坚持追逐更高的算力,国产算力集群逐渐从过去的千卡规模,向万卡规模进发。在WAIC上,摩尔线程也发布了国内首个万卡规模的智算集群解决方案“夸娥”(KUAE)。…

刚刚,AI 文档搜索公司 Hebbia 宣布完成 1.3 亿美元融资!a16z 领投,还有 Index 以及 GV 等

文章来源:Newin有新 图片来源:由无界AI生成 周一,位于纽约的 AI 初创公司 Hebbia 宣布完成新一轮 1.3 亿美元融资,由 a16z 领投,Index Ventures、Google Ventures 以及 Peter Thiel 参投。 据悉,Hebbia 目前估值约为 7 亿美元,公司成立于 2020 年,其软件可分析数字化文档和数据源,包括监管文件、PDF 以及音频和视频剪辑,以帮助客户处理比面向消费者的聊天机器人更复杂的查询,类似 Glean。 此外,Hebbia 还以更细致的方式显示结果,旨在让用户更容易验证答案——也许可以减轻企业对 AI 可能产生幻觉的不准确信息的担忧。 例如,Hebbia…

​OpenAI Altman圆桌:AGI可以创造100万亿美元财富,十年内世界GDP翻一番

文章来源:51CTO技术栈 图片来源:由无界AI生成 OpenAI CEO Sam Altman 和好友 Airbnb CEO Brian Chesky 与 NBC 主持人 Lester Holt 展开了一场圆桌讨论。 对话广泛涵盖了人工智能 (AI) 在日常生活和工业应用的各个方面的普遍影响,强调了AI能力的不断增强将给社会带来的广泛变化。Altman提到,希望AI技术持续给人类带来利益,让他们在自己所做的事情中发挥出最佳状态。 以下是经过整理的圆桌全文: AI技术的渗透: 每个行业都将被AI改造 主持人:感谢大家来到这里。我对这次谈话感到非常兴奋。首先,我想介绍一下两位嘉宾的好友关系,你们的工作在一些重要项目和事情上有过合作。所以我们也会探讨其中的一些问题。如果你想知道为什么他们两个会一起出现在这里,这就是为什么。非常感谢嘉宾的时间。让我从一个角度来看,山姆,你认为今天有多少观众以某种方式与AI互动? Sam Altman:我敢打赌…… 主持人:顺便说一下,我不打算让你为预测结果负责。 Sam Altman:大约90%的观众。 主持人…

李彦宏,要让AI走正道,见众生

在今天,中国究竟有多少AI大模型,恐怕已经是很难统计的问题。继2023年百模大战之后,今天各个大模型体系都在开枝散叶,并且有更多行业、企业、科研机构加入了打造大模型的队伍中。AI行业,呈现出前所未有的繁荣。 但问题也随之而来。如此之多的大模型究竟如何产生价值?未来,它们的应用归宿是什么?如何把大模型的繁荣,变成社会经济的繁荣? 一年一度的世界人工智能大会(WAIC)刚刚落下帷幕。在这个舞台上,我们看到了全球AI领域让人目眩神迷的创新成果。然而与此同时,我们也需要一些对问题的正视,以及对未来的冷静思考。 在WAIC2024期间,百度创始人、董事长兼首席执行官李彦宏与《第一财经》总编辑杨宇东、《硅谷101》创始人陈茜进行了AI主题圆桌对谈,探讨了大模型开源闭源、大模型价格战、智能体、超级应用、AGI等业界热点问题。同期,李彦宏也出席了WAIC产业发展论坛,并发表主题演讲。 在这次对谈中,李彦宏坦率剖析了AI技术的现状,分析了AI时代如何避免掉入超级应用陷阱,并且预判了智能体将是AI发展的主旋律。他认为,“今天大多数AI原生应用,你用智能体的方式都可以做出来,效果也不错。由于它门槛足够低,可能你连编程都不用,就可以做出一个效果不错的智能体。门槛足够低,就意味着越来越多的人,可以做出他想要的智能体”。 从中,我们可以总结出李彦宏的AI应用观:AI落地,要警惕虚火,走正道,见众生。 警惕大模型变成空中楼阁 宏观描述今天全球AI产业的发展局势,我们很容易得到一个整体性判断:AI技术进展很快,模型开发众多,但产生的社会经济价值却很浅薄。 为什么AI行业会出现大模型很多,实用价值却很少的情况?诚然,大模型走向应用化需要时间是先决条件。但产业把太多注意力投向了热度高,人气旺,却同质化极高,应用价值寥寥的方向,也是一个客观存在的问题。长此以往,AI技术很可能像很多技术风口一样出现泡沫过大,资源浪费过多,同时落地困难的问题,最终导致AI大模型变成一座空中楼阁。 我们可以将目前AI产业存在的多种问题,总结为具有代表性的三点: 1.做了很多大模型,却不知道有什么用。 伴随着百模大战的持续开展,大模型开始变得体系繁杂,种类众多。但为数众多的大模型项目,在启动之初并没有合理地应用规划。为了赢得市场、资本与开发者的快速关注,大模型开发者将更多精力投入到跑分、刷榜等环节上,或是更多关注命名与噱头。 但在真正的应用场景中,无论是C端还是B端用户,都只会关注使用价值,而不是榜单与噱头。模型过多,应用过少,应用价值稀薄,构成了今天AI产业必须解决的首要问题。 2.盲目追求开源,却不知道开源的目的是什么。 伴随着软件开源事业的兴起,开源和闭源是近期AI行业讨论度非常高的话题。但很多人没有注意到的一点是,开源模型与开源软件在定义与应用方法上截然不同。开源大模型并没有开源源代码,也不会像传统意义上的开源软件一样形成社区共建效应,反而由于开源大模型的商业模式定位,会让用户产生更多的后期成本与使用不确定性。 因此李彦宏直言,“开源其实是一种智商税”。做大模型要有场景应用,有价值,能够为客户、为用户提升效率、降低成本。他说:“你永远应该选择闭源模型。今天这些闭源模型,无论是ChatGPT还是文心一言,以及其他各种各样的闭源模型,它的平均水平,一定是比这些开源模型更强大,推理成本一定是比开源模型更低。” 3.沉浸在惯性思维,过度关注所谓超级应用。 AI产业还有一个问题,就是迫切希望AI时代像互联网时代一样,出现搜索、电商这样的超级应用,从而诞生巨大的流量入口。但事实上,这种对AI应用的期待完全是基于惯性。在大模型带来新的技术底座后,应用模式与应用的成长路径也会发生变化。“无法诞生超级应用就是AI不行”,这样的超级应用思维,正在变成困扰AI发展的陷阱。 AI发展,不能走“只重技术不重应用”的虚路,不能走“盲目开源”的歪路,更不能走互联网时代的老路。 那么,AI应用究竟路在何方? 在李彦宏看来,AI的正路在于智能体,在于让AI在无数需求中焕发价值。 AI应该走智能体的正道 AI既要快速走向应用,又不能生搬硬套传统的网站与APP模式。在这种情况下,最能清晰被开发者感知,也最接近用户价值的AI应用模式就是智能体。可以说,智能体是目前最好的AI应用方向,是当之无愧的AI正道。 从技术上来看,智能体不止有对话能力,还有反思、协作能力,能够有效利用绝大多数大模型带来的技术创新特性。并且面向未来,智能体还可以通过协作来解决复杂任务,是被公认的最有前景的AI发展方向, 也是最接近AGI的应用路径。 李彦宏在访谈中表示,“智能体正在爆发,只是说它现在基数还比较小,大家的体感没有那么强烈。但是你要看业界大模型公司,都在做智能体。智能体就是一个几乎可以‘放之四海而皆准’的基于大模型的应用”。 而智能体低开发门槛,直面特定需求的应用模式,又决定了智能体的成功并不以绝对化的流量来判断,而是要考虑它的应用场景、应用价值以及投入产出比。或许一个根本不用代码进行开发的智能体,就可以基于大模型基础能力、开发者的巧妙思考、对应用场景的准确判断,结合起来撬动巨大的价值。 今年6月,李彦宏曾在“亚布力成长计划-走进百度”活动上表示,智能体是AI时代的网站,将会有几百万,甚至更大量的智能体出现,形成庞大生态。 最新访谈活动中,李彦宏进一步阐释道,“由于做网站很简单,在90年代中后期,就诞生了数以百万计的网站。大浪淘沙之后,最终出来了一些非常优秀的网站,像Google、Facebook,这是若干年之后才出现。但是早期看,这些网站都是乱糟糟的,一个大学生就能做一个网站出来,这有啥价值?但是你必须得门槛足够低的时候,让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个Super APP”。…

大模型训练成本飙升,千亿模型将亮相

文章来源:半导体行业观察 来源:内容由半导体行业观察(ID:icbank)编译自tomshardware。 图片来源:由无界AI生成 Anthropic 首席执行官 Dario Amodei 在In Good Company 播客中表示目前正在开发的人工智能模型的训练成本高达 10 亿美元。目前的模型(如 ChatGPT-4o)仅花费约 1 亿美元,但他预计,训练这些模型的成本将在短短三年内上升至 100 亿美元甚至 1000 亿美元。 “目前是 1 亿。如今训练的模型数量可能超过 10 亿。” Amodei 还补充道,“我认为如果我们达到 100 亿或 1000…

马斯克自曝Grok 2将于下月上线!Grok 3也在加紧训练中

马斯克自曝Grok 2将于下月上线!Grok 3也在加紧训练中… 马斯克真是的世界上精力最旺盛的富豪之一,他一面进行着火箭计划,一面加紧研发新能源车的步伐,还在百忙之中抽空在自己的社交软件上宣布“Grok 2将于下月上线”的重大消息。 同时完成好几件工作,马斯克算是把“多线作战”玩的明明白白的了。 连发两条推文为xAI造势!8月发布Grok 2,年底将推出Grok 3… 就在最近,深谙营销和宣传之道的马斯克在自己的推特上连发两条推文,为自己的xAI造势。 大家都知道,xAI由马斯克建立,它致力于构建通用人工智能,其目标是“了解宇宙的真实本质”。事实上,xAI的出现是带着“使命感”的,就是要与谷歌的DeepMind,ChatGPT的制造商OpenAI等行业领导者进行竞争。 马斯克本人也与当下的AI 巨头公司OpenAI之间存在着错综复杂的关系。他曾是OpenAI的联合创始人和早期支持者,后来因为尝试收购OpenAI失败以及利益冲突而离开了公司。如今,马斯克已经公开表示与OpenAI的CEO Sam Altman关系不合,更严厉斥责该公司和Altman“只顾利润,不顾安全”的态度,他甚至对OpenAI发起了起诉。 2023年3月,xAI推出了Grok的第一代版本Grok 1模型,Grok 1是由xAI从头开始训练的3140亿参数专家混合模型,其参数远超OpenAI GPT-3.5的1750亿,并且是Llama 2的4倍。4月16日,xAI乘胜追击,效率极高的推出了升级版的Grok 1.5V,在性能上拥有了显著的提高。它不仅拥有强大的文本功能,还能处理各种视觉信息,包括文本,图像,文档以及表格内容。特别是在理解物理世界方面,Grok 1.5V的表现优于其他同类产品。 而在推特上进行回帖的马斯克表示,xAI的大语言模型Grok 2将于8月推出。并且马斯克为大家划重点:在数据训练方面将有大跨步。与此同时,他还透露,xAI的Grok 3使用了10 万块英伟达H100芯片进行训练,预计将于年底发布,相信它会“非常特别”。 Grok 2还没推出,就已经开始为Grok 3造上势了,不得不说,马斯克的确是懂流量的。 Grok…