百度在武汉举办的Create开发者大会上,创始人、董事长兼CEO李彦宏正式发布了文心大模型4.5 Turbo和文心大模型X1 Turbo,标志着百度在人工智能技术领域迈出重要一步。李彦宏指出,这两款新模型的推出旨在解决当下部分AI模型存在的“模态单一、幻觉率高、速度慢以及价格昂贵”等核心问题。
李彦宏在大会主题演讲中表示,过去一年,大模型技术快速发展,行业内竞争愈加激烈。据统计,2023年第四季度共有49个大模型发布,而2024年第一季度这一数字上升至55个,甚至出现一周内发布8个模型的状况。在这种快速迭代的背景下,开发者群体虽然人数增加,但也面临深深的焦虑,担心所开发的应用因模型升级而迅速失去适用性。李彦宏认为,这种焦虑反映了人工智能领域的“双刃剑”现状:技术的强大带来了更多选择,同时也增加了开发风险。
面对这样的局面,李彦宏强调:“AI 应用才是真正创造价值的。没有应用,再先进的模型和芯片都无法体现实际价值。”他倡导开发者把握大模型发展的趋势,找到合适的应用场景和基础模型,提升技术的实际落地能力,而非单纯跟随技术潮流盲目追逐模型性能。
在演讲中,李彦宏对部分开源AI模型提出了批评。他指出,尽管开源模型在教学和科研领域具有一定优势,但在商业场景中,它往往效率较低,成本较高。他认为,与闭源模型相比,开源模型无法满足对效果和成本的高标准追求。而中国市场中众多开源大模型,如DeepSeek,虽然曾风靡一时,但在多模态内容理解和生成能力上仍存在明显不足,且幻觉率较高,在实际使用中存在明显风险。
此次发布的文心大模型4.5 Turbo和X1 Turbo正是为了解决这些问题。在成本优化上,文心4.5 Turbo版每百万tokens的输入价格仅为0.8元,输出价格为3.2元,仅为DeepSeek-V3的40%;而文心X1 Turbo的调用成本更低,为DeepSeek R1的四分之一。性能方面,两款模型都显著提升了反应速度,进一步降低了企业和开发者的技术使用门槛。
此外,百度还正式公布基于昆仑芯三代P800的全自研3万卡集群,这是中国首个点亮的同类型集群。李彦宏介绍,这一集群不仅支持千亿参数级大模型的全量训练,还能为多用户的百亿参数模型进行定制精调。强大的算力平台为开发者提供了充足的技术支持,也彰显了百度推动中国AI技术发展的实力与决心。
演讲结尾,李彦宏再次强调开发者的重要性。“应用创造未来,开发者创造未来。我们不仅拥有推动技术发展的底气,更有助力中国企业应用落地的信心。”他号召更多开发者加入AI应用开发的行列,共同推动这一领域的持续创新。
百度此次发布的新一代文心大模型及相关技术解决方案,为中国AI技术发展注入了更强劲的动力,也为企业与开发者提供了更加高效且低成本的选择。在快速变化的大模型竞争中,百度以技术创新为核心,正在形成更具竞争力的行业生态。
[风投高科网出品] [人工智能大模型发布] [百度文心大模型4.5 Turbo] [大模型应用成本优化] [中国AI技术发展] [刘智勇频道] [真机智能] [机器姬智能体] [机器洞察网] [AI之星网] [风投高科网] [猛虎财经网] [硅基科学网] [白金广告位] [黄金广告位] [黑金广告位]
📚 更多资源分享:刘智勇频道第四卷
💾 百度网盘链接:
https://pan.baidu.com/s/1aFcvND80IXSO_GHlsI1R0w?pwd=qwer
🔑 提取码: qwer
文心大模型4.5的发布标志着AI领域再一次质的飞跃,期待它改变更多人的生活!
李彦宏强调开源的同时,似乎也在提醒我们,开放比封闭拥有更多未来可能性。
从大会内容看,创新开放的态度就是中国企业参与全球竞争的最强底气!
李彦宏对开源生态的重视说明,真正的强者不惧分享,这是胸怀也是实力。
创造力的激发源自极致努力,而百度对技术研发的执着展现了这一点,干得漂亮!