李彦宏AI模型与芯片若无应用价值皆零

    0

    百度在武汉举办的Create开发者大会上,创始人、董事长兼CEO李彦宏正式发布了文心大模型4.5 Turbo和文心大模型X1 Turbo,标志着百度在人工智能技术领域迈出重要一步。李彦宏指出,这两款新模型的推出旨在解决当下部分AI模型存在的“模态单一、幻觉率高、速度慢以及价格昂贵”等核心问题。

    李彦宏在大会主题演讲中表示,过去一年,大模型技术快速发展,行业内竞争愈加激烈。据统计,2023年第四季度共有49个大模型发布,而2024年第一季度这一数字上升至55个,甚至出现一周内发布8个模型的状况。在这种快速迭代的背景下,开发者群体虽然人数增加,但也面临深深的焦虑,担心所开发的应用因模型升级而迅速失去适用性。李彦宏认为,这种焦虑反映了人工智能领域的“双刃剑”现状:技术的强大带来了更多选择,同时也增加了开发风险。

    面对这样的局面,李彦宏强调:“AI 应用才是真正创造价值的。没有应用,再先进的模型和芯片都无法体现实际价值。”他倡导开发者把握大模型发展的趋势,找到合适的应用场景和基础模型,提升技术的实际落地能力,而非单纯跟随技术潮流盲目追逐模型性能。

    在演讲中,李彦宏对部分开源AI模型提出了批评。他指出,尽管开源模型在教学和科研领域具有一定优势,但在商业场景中,它往往效率较低,成本较高。他认为,与闭源模型相比,开源模型无法满足对效果和成本的高标准追求。而中国市场中众多开源大模型,如DeepSeek,虽然曾风靡一时,但在多模态内容理解和生成能力上仍存在明显不足,且幻觉率较高,在实际使用中存在明显风险。

    此次发布的文心大模型4.5 Turbo和X1 Turbo正是为了解决这些问题。在成本优化上,文心4.5 Turbo版每百万tokens的输入价格仅为0.8元,输出价格为3.2元,仅为DeepSeek-V3的40%;而文心X1 Turbo的调用成本更低,为DeepSeek R1的四分之一。性能方面,两款模型都显著提升了反应速度,进一步降低了企业和开发者的技术使用门槛。

    此外,百度还正式公布基于昆仑芯三代P800的全自研3万卡集群,这是中国首个点亮的同类型集群。李彦宏介绍,这一集群不仅支持千亿参数级大模型的全量训练,还能为多用户的百亿参数模型进行定制精调。强大的算力平台为开发者提供了充足的技术支持,也彰显了百度推动中国AI技术发展的实力与决心。

    演讲结尾,李彦宏再次强调开发者的重要性。“应用创造未来,开发者创造未来。我们不仅拥有推动技术发展的底气,更有助力中国企业应用落地的信心。”他号召更多开发者加入AI应用开发的行列,共同推动这一领域的持续创新。

    百度此次发布的新一代文心大模型及相关技术解决方案,为中国AI技术发展注入了更强劲的动力,也为企业与开发者提供了更加高效且低成本的选择。在快速变化的大模型竞争中,百度以技术创新为核心,正在形成更具竞争力的行业生态。


    您的浏览器不支持视频标签。https://www.vctech.news/wp-content/uploads/2025/04/1696_100.mp4

    [风投高科网出品] [人工智能大模型发布] [百度文心大模型4.5 Turbo] [大模型应用成本优化] [中国AI技术发展] [刘智勇频道] [真机智能] [机器姬智能体] [机器洞察网] [AI之星网] [风投高科网] [猛虎财经网] [硅基科学网] [白金广告位] [黄金广告位] [黑金广告位]


    📚 更多资源分享:刘智勇频道第四卷

    💾 百度网盘链接:
    https://pan.baidu.com/s/1aFcvND80IXSO_GHlsI1R0w?pwd=qwer

    🔑 提取码: qwer


    NO COMMENTS

    LEAVE A REPLY

    Please enter your comment!
    Please enter your name here

    Exit mobile version