生成式AI的落地焦虑

2023-12-28 17:04发布

ChatGPT 火爆出圈以来,各式大模型与生成式 AI 技术喷涌而出,医疗、金融、出行、消费零售、互联网等各个行业都在寻找利用生成式 AI 技术赋能业务创新的方法。然而,从摸索到落地,企业在应用用生成式 AI 技术尚存在门槛,使用现成的技术服务又会产生安全等方面的顾虑,比如业务数据泄漏等问题。一时间,许多企业陷入进退两难的境地。

    实际上,生成式 AI 市场经过一年多快速的发展,一方面市场上涌现出很多大模型与配套服务,另一方面,企业面临的难题也在与日俱增。

    首先,从模型的选择开始,眼花缭乱的大模型就已经够厂家研究一番。5 28 日,由中国科学技术信息研究所、科技部新一代人工智能发展研究中心联合相关研究机构编写的《中国人工智能大模型地图研究报告》正式发布,报告显示,我国 10 亿参数规模以上大模型已发布近 80 个。再到 10 月中国新一代人工智能发展战略研究院发布的《2023 中国新一代人工智能科技产业发展报告》显示,目前国内大模型总数达 238 个。而据北京经信局数据,截至 10 月初,北京发布大模型数量达 115 个,其中通用大模型 12 个,垂类大模型 103 个。

    按照这个发展趋势,百模大战或许很快就会升级为千模大战。而企业如何选择大模型便会难上加难。在具体应用场景中,企业需要在准确性和性能平衡间作出衡量,有效地比较模型并根据其首选指标找到最佳选择,这就需要深厚的数据科学专业知识,也会耗费大量的人力时间成本。

而模型的选择只是开始,确定模型之后,还需要结合自身业务,做模型的精调、训练等工作。在这一步,公司的业务数据类型与大模型输入所要求的数据类型需要做一定适配,同时输入的数据需要具有代表性、多样性、一致性和可靠性,这样才能实现效果更佳的输出,这便要求企业需要有既懂业务,又懂大模型技术的工程师对数据进行整理。

  此外,大模型的精调也需要大量的算力,需要投入大量的资金和时间来购买和维护硬件设备,或者租用云服务,同时基础设施也需要长时间的维护。而大模型技术作为新兴技术,许多公司并没有相应的人才储备与经验,这对企业来说也是不小的压力。

    模型本身的问题解决了之后,企业还要面临安全隐患。比如很多使用方会担心,用了某个大模型,那么自己的数据会不会都被模型方看到甚至泄露?会不会导致敏感信息泄漏,或是生成违规内容等等?那么,企业就需要确保数据在传输、存储和处理的过程中不会被泄露或者滥用,以免给业务和声誉带来损失。

 



登录 后发表评论
0条评论
还没有人评论过~