大模型“随船出海”,AI远涉大洋

2025-08-21 18:00:00 0浏览

lruv2wrlotoca3ohm0olr5hp4rrxp4267865.gif

深远海,是国家战略资源的前沿,也是全球气候治理与生态保护的关键战场。高水平的远洋科考,不仅关乎海洋能源与资源的安全保障,更为气候监测与生态保护提供坚实支撑,有助于提升我国在深海、公海的认知能力与国际话语权,推动“海洋强国”“蓝色经济”等国家战略加速落地。

0mu2dls6pr52msp2umyc12w5sdc13o270106.jpg

在这一背景下,某海洋研究所的新型科考船科研团队正加速迈向多学科深度融合,任务覆盖地球物理成像、水体生态观测、深海资源评估与气候数据采集等多个方向。

深蓝之下的科研困境

面对复杂交织的科研任务,科考团队始终在寻找提升科研效率的路径。随着大模型技术逐渐成熟,他们看到了一个全新可能——将那些重复性强、占用大量时间的“科研体力活”交给AI,把宝贵的海上时间用于更有价值的一线探索。

xlvgfdz5rmaatsttuq0k5vx37p7rxm397529.jpg

他们期待AI能够完成多项关键任务——快速准确地将文献中的复杂公式PDF转写为可编辑格式;自动生成科研代码并完成缺陷检测;基于本地存储的观测数据,构建知识库,实现智能检索与问答。

然而,现实部署环境远比设想更艰难。在远洋航行中,通信能力极为受限,船只通常只能依靠低带宽的卫星链路维持基本联络。与此同时,采集的大量数据和科研资料高度敏感,对信息安全和处理环境提出极高要求。在弱网与高安全的双重压力下,云端大模型的推理能力无法发挥。

科研团队也曾考虑部署服务器在船上搭建本地AI环境,但很快发现难以落地。科考船中央机房空间紧张、电力有限,且临近科研操作舱,对设备噪音有严格控制;更不用说船舶多震动的极端环境,对设备的稳定性和抗干扰能力提出极高挑战。而一旦设备在数月航程中出现故障,几乎无法维修。

极高的智力支持需求与有限的部署环境,面对这一困境,他们需要一套本地部署的大模型解决方案,不仅要具备强大的推理能力,还要能在封闭、断网环境中稳定运行,确保从数据处理到智能推理全流程的顺利完成,这是一个很有难度的挑战。

把复杂留给平台,把创新交给开发者

为满足远洋科考对算力、稳定性与安全性的极致要求,科研团队采用了一套由联想模型推理AI工作站与Lenovo xCloud模型平台组成的软硬一体化方案。

nm6ud1cq6s0cnobntoay519dt3diwj436993.jpg

船舶机房部署的科考AI工作站

该方案由联想联合ISV合作伙伴广州正道科技共同打造,依托ThinkStation P620 AI工作站高达492 TFLOPS(FP16精度)的强大算力,以及Lenovo xCloud平台丰富的工具组件,构建出一套支持多模型本地运行的船载AI系统。即便在断网环境中,也能实现智能推理与多任务协同,全面支撑远洋科研任务。

b5nd0f6v0ttq1a440i4ebtqh54bhtv229212.jpg

Lenovo xCloud模型平台

Lenovo xCloud模型平台的核心优势在于“预置能力”与“可拓展性”。平台集成了主流开源大模型、RAG检索、任务调度、权限管理等通用模块,并提供成熟的API接口和低代码工具。合作伙伴无需从零搭建算法和平台,只需聚焦具体科研场景,即可快速开展应用开发。这种“开箱即用”的架构,大幅降低开发与集成门槛,加快了产品交付进程。

此外,Lenovo xCloud平台还具备工程化的全生命周期管理能力,覆盖模型的调用、测试、上线、运维与更新。内置的对话式助手能调用联想内部的技术知识库,自动回答常见故障问题,提供精准指引,显著提升维护效率。凭借这些能力,平台不仅帮助广州正道满足科考队多样化的个性化需求,也实现了真正意义上的“千人千面”——让AI以最合适的方式嵌入用户业务。

正如广州正道科技曹安所说:“在科考船这种特殊环境下,我们更需要一个稳定可靠、快速适配的科研平台。联想模型推理AI工作站让我们免于底层调试,把更多时间用于科研创新。”

让AI成为船上的“第二大脑”

本地部署的大模型系统,正在成为远洋科考的得力助手,显著提升了科研效率与工作流整合能力。

在文献处理方面,科研团队借助联想模型推理AI工作站运行的32B大模型,结合文字识别插件,可高效完成图像转文字的转换任务。尤其是在复杂数学公式从PDF中转写为可编辑格式的场景中,表现尤为突出。过去需要逐行手动输入、排版与校对的工作,如今几分钟内即可完成,并可直接进行编辑,大幅提高了文献整理的效率。

6xsu90u04xpunfurxgbjv438a6hxsx376547.jpg

论文原文

q5nh6tcr6xm50phbsn5uxxm32bd79n566566.jpg

大模型识别结果

在知识管理方面,Lenovo xCloud模型平台提供检索增强能力,并构建了公共与个人双域知识库体系,支持权限隔离与精准内容查找。科研人员只需提出问题,系统即可在成百上千篇科研文献中快速定位所需信息,显著提升查阅效率与团队间的知识共享能力。

在科研开发和数据分析场景中,Lenovo xCloud模型平台内置的编码大模型支持自然语言生成代码,自动完成缺陷检测与单元测试。以往费时费力的数据预处理、代码编写与调试,如今只需几句自然语言指令,即可自动完成,让科研人员专注于核心研究工作,释放更多时间与精力。

256vsprdw9hatl7z3c9fczw0vsar1n263334.jpg

科研代码分析

更关键的是,整套方案完全运行于本地环境,无需依赖外部网络,所有数据与计算过程皆在设备内部封闭处理,既保障了数据安全,也满足远洋科考对断网环境的严格要求。联想模型推理AI工作站的超强算力支持多模型并发推理,可在单一平台上同时运行文献问答、图像文字识别、知识检索与代码生成等任务,实现科研工作流的高效协同与整合。

而以上这些强大的功能,都被压缩进一台紧凑的桌面级工作站——ThinkStation P620中,解决了科考队的部署诉求。面对船舶空间狭小、供电受限的实际条件,该方案也展现出卓越的硬件适应性与可靠性。系统优化设计将整机功耗控制在1000W以内,同时具备低噪声运行能力,适配于紧凑舱室和敏感科研环境。通过联想原厂严苛测试,其稳定性与耐用性在远洋长期运行中得到了充分验证,真正成为一台“可随船出海”的AI科研平台。

探索无界,AI同行

在浩瀚无垠的远洋科考中,AI正逐步成为科研团队的得力助手。通过部署联想模型推理AI工作站与Lenovo xCloud模型平台,让科研人员即便在断网环境下和紧凑的部署空间中,也能高效完成多任务处理,让AI真正成为船上的“第二大脑”。

对生态伙伴而言,联想的本地大模型平台同样释放出巨大价值。Lenovo xCloud模型平台ISV提供简易的开发环境,开发者无需从零搭建平台环境,可专注于科研任务的适配与交付,显著缩短开发周期,加速方案落地。

在今年5月的“2025联想智能体解决方案生态论坛”上,联想正式发布面向合作伙伴的智能体生态计划,进一步开放工作站平台能力,携手ISV聚焦科研、制造、能源等重点行业,共同满足细分场景中的智能化需求。

未来,联想AI工作站将持续深入每一个前沿场景,成为更多行业用户的“第二大脑”,陪伴他们探索未知边界、求索新知。”