查看原文
其他

用户超6亿!190多个大模型怎么管?四个字告诉你!

孙迎新 飞象网
2024-08-22

生成式人工智能大模型是基于深度学习和大规模数据集训练的复杂算法,能够生成高质量、多样化的文本、图像、音频和视频等新内容。这些模型通过学习大量数据中的模式和特征,从而在无需人工干预的情况下创造全新的原创内容。在这个由算法和数据驱动的奇迹中,AI大模型能够用语言描绘出栩栩如生的故事,用音符编织出动人心弦的旋律,甚至能够用代码构建出功能强大的软件。它们不仅仅是工具,更是艺术家、音乐家和工程师的伙伴,共同创造出超越想象的作品。



日前,中央网信办主任庄荣文在接受新华社采访时表示,近年来,生成式人工智能快速发展,新技术不断突破,新业态持续涌现,为经济社会发展注入了强劲动能。截至目前,我国完成备案并上线、能为公众提供服务的生成式人工智能服务大模型已达190多个,注册用户超过6亿


作为数字时代,推动人类在科技、生产、生活等各方面进行智能化转型发展的重要工具与驱动力,生成式AI大模型的地位与重要性不言而喻,同时如何对拥有海量注册用户的大模型进行管理与建设也成为全球各国的信息科技管理部门亟待解决的问题。为此,庄荣文表示,积极推动生成式人工智能发展和管理,是网信工作的重要职责。在去年7月,国家网信办会同相关部门发布《生成式人工智能服务管理暂行办法》,在全球范围内率先开展立法,为我国人工智能健康发展保驾护航。相关技术和应用呈现出积极有序发展的良好态势。


针对如何推进人工智能基础能力建设,加速自主大模型研发和应用,庄荣文做了进一步的阐述,并提出四个方面的建议,并表示下一步,将坚持统筹高质量发展和高水平安全,推动这一重要领域的产业发展、技术进步与安全保障。


强化自主可控,激发创新活力


生成式人工智能的发展,离不开自主可控的技术基础,高质量的数据支持,合理的监管治理,以及企业的创新活力。通过以下四个方面的努力,我们可以期待,在不久的将来,我国的生成式人工智能技术将达到一个新的高度,为社会的发展做出更大的贡献。



01

着力促进自主可控算力芯片、算法框架研发建设

自主可控的算力芯片和算法框架是生成式人工智能发展的基础。算力芯片作为AI的“心脏”,其性能直接影响到AI模型的处理速度和效率。而算法框架则是AI的“大脑”,决定了AI的智能程度和应用范围。目前,虽然国际上已有一些成熟的算力芯片和算法框架,但为了实现技术的自主可控,我们必须加大研发力度,推动国产算力芯片和算法框架的发展。


例如,华为推出的昇腾系列AI处理器,以及百度的PaddlePaddle深度学习平台,都是我国在这一领域的杰出代表。通过这些自主研发的产品,我们可以减少对外部技术的依赖,提高我国在AI领域的竞争力。


02

打造高质量中文语料库,大力推进人工智能基础能力建设

中文语料库的建设对于生成式AI尤为重要。由于中文的特殊性,如语言结构、语境理解等,都需要大量的中文数据来训练和优化模型。因此,构建一个高质量、覆盖广泛的中文语料库,对于提升AI的中文理解和生成能力至关重要。


同时,基础能力的建设也是不可或缺的。这包括数据的采集、清洗、标注等前期工作,以及模型的训练、测试、优化等后期工作。只有打好基础,才能让AI模型更加精准、智能。


03

坚持包容审慎和敏捷治理,优化大模型备案流程

在AI技术快速发展的同时,我们也面临着诸多挑战,如数据安全、隐私保护、伦理道德等问题。因此,我们需要坚持包容审慎的原则,对AI技术进行合理的监管和治理。


敏捷治理是指在确保安全的前提下,简化流程,提高效率。例如,对于大模型的备案流程,我们可以采用在线备案、快速审核等方式,减少企业的等待时间,提高备案的效率。


04

降低企业合规成本,持续激发企业创新活力

合规成本是企业在遵守法律法规时所需承担的成本。过高的合规成本可能会抑制企业的创新活力。因此,我们需要通过政策支持、税收优惠等措施,降低企业的合规成本,激发企业的创新动力。


同时,企业自身也应该加强合规意识,主动适应监管要求,确保技术的健康发展。只有这样,企业才能在激烈的市场竞争中立于不败之地。


引导应用落地,赋能行业发展


生成式人工智能作为一项前沿技术,其在各行业的应用前景广阔。通过充分发挥我国市场优势,激活AI赋能实体经济的作用,并推动其在传统行业领域的应用突破,我们有理由相信,生成式AI将成为推动社会进步和经济发展的重要力量。让我们携手共进,拥抱AI带来的无限可能。



01

发挥市场优势,促进技术落地

中国拥有世界上最大的互联网用户群体和快速增长的数字经济市场。这一超大规模市场为生成式人工智能提供了广阔的应用场景和丰富的数据资源。在工业领域,生成式AI可以通过模拟和预测,优化生产流程,提高效率和质量。例如,通过机器学习算法,可以预测设备故障,减少停机时间,提升生产线的稳定性。


在农业领域,生成式AI的应用可以提高作物产量和质量。通过分析气候、土壤和作物生长数据,AI能够为农民提供定制化的种植建议,实现精准农业。此外,AI还能够在教育、医疗和卫生等领域发挥重要作用。在教育中,AI可以根据学生的学习进度和能力,提供个性化的学习计划和资源。在医疗领域,AI辅助的诊断系统能够提高诊断的准确性和效率,为患者提供更好的治疗方案。


02

激活AI赋能实体经济的作用

生成式AI不仅仅是技术层面的创新,更是实体经济发展的新引擎。通过深度学习和神经网络技术,AI能够生成新的产品设计、优化供应链管理、提升客户服务体验等。这些应用不仅提高了企业的竞争力,也为消费者带来了更多的选择和便利。


例如,零售业通过AI分析消费者行为,能够更准确地预测市场需求,减少库存积压,提高资金周转效率。在金融领域,AI风控系统能够实时监控交易行为,及时发现并防范欺诈风险,保障金融市场的稳定。


03

推动传统行业领域的应用突破

尽管生成式AI在多个领域已经取得了显著的成果,但在传统行业中的应用仍有很大的发展空间。我们需要通过政策引导、资金支持和人才培养,推动AI技术与传统行业的深度融合。


在制造业,AI可以与机器人技术结合,实现自动化和智能化生产。在建筑业,AI辅助的设计软件可以提高设计效率,优化建筑结构。在交通领域,智能交通系统可以通过实时数据分析,优化交通流量,减少拥堵。


强化自主可控,激发创新活力


生成式人工智能的发展,为我们带来了前所未有的便利和创新。然而,技术的进步不应以牺牲安全为代价。通过建立完善的安全标准体系,推动技术本身的安全能力提升,指导企业合法合规经营,以及积极防范技术滥用带来的风险,我们可以在享受技术红利的同时,确保社会的稳定和每个人的权益得到保护。这不仅是技术发展的要求,也是我们共同的责任和追求。



01

丰富完善安全标准体系

首先,我们需要在分类分级、安全测试、应急响应等方面建立和完善安全标准体系。这意味着,对于不同的生成式人工智能应用,要根据其潜在的风险和影响程度进行分类,制定相应的安全标准。例如,对于可能涉及个人隐私的应用,需要有更为严格的数据保护标准。


安全测试是确保技术安全的重要环节。通过模拟各种潜在的安全威胁,我们可以在产品发布前发现并修复安全漏洞。此外,建立应急响应机制,确保在安全事件发生时能够迅速有效地应对,减少损失。


02

引导推动大模型提升安全能力水平

生成式人工智能的大模型,如自然语言处理(NLP)和图像生成模型,是技术发展的核心。推动这些大模型提升安全能力,不仅是技术层面的挑战,也是道德和社会责任的体现。我们需要引导研发者在设计和训练模型时,充分考虑安全性,避免生成有害或不当的内容。


同时,通过持续的技术创新,如引入对抗性训练和强化学习等方法,可以提高模型对恶意输入的抵抗力,减少被滥用的风险。


03

指导相关平台企业合法合规提供优质服务

平台企业作为技术的应用者和推广者,承担着向用户提供优质、安全服务的责任。政府和监管机构应指导这些企业遵循法律法规,建立健全的用户数据保护机制,确保服务的合法合规。


此外,平台企业还应加强与用户的沟通,提高透明度,让用户了解其数据如何被使用和保护,增强用户对平台的信任。


04

防范技术滥用带来的风险

技术滥用带来的风险多种多样,包括个人数据泄露、虚假信息生成、知识产权侵权等。防范这些风险,需要多方面的努力。


在个人数据保护方面,应加强数据加密技术的应用,限制数据访问权限,确保只有授权人员才能访问敏感数据。对于虚假信息的生成,可以通过算法识别和人工审核相结合的方式,及时发现并处理虚假内容。知识产权侵权问题则需要加强法律法规的建设,明确人工智能生成内容的版权归属,保护原创者的合法权益。


坚持协同共治,营造良好生态


在生成式人工智能领域,坚持协同共治,营造良好生态是一项长期而艰巨的任务。它需要我们不断探索和实践,以确保技术的发展既能带来社会进步,又能保障人类的基本权益。通过凝聚各方力量,推动法律和规章制度的建立,实现人工智能安全治理的协调一致,以及开展国际合作,我们有信心能够引导人工智能技术朝着更加健康、可持续的方向发展。



01

凝聚各方力量,推动法律和规章制度的建立

在生成式人工智能领域,技术的发展速度远远超过了现有法律和规章制度的更新速度。为了确保技术的健康、有序发展,首先需要凝聚政府、学术界、产业界以及公众的力量。通过跨部门合作,共同研究和制定相关的法律和规章制度,确保人工智能的发展既符合伦理道德标准,又能够促进社会的整体利益。


例如,欧盟在2018年发布了《人工智能协调计划》,旨在建立一个全面的人工智能发展框架,包括伦理指南、投资计划和立法建议。这表明,通过政策引导和法律规范,可以为人工智能的发展提供明确的方向和边界。虽然欧盟制定了这样的协调计划,但并不意味着就可以在全球范围内遵照执行,在具体实施过程中,还需要各个国家根据本国的实际情况进行调整,制定相应的具体实施办法,这才是协同共治的核心思想。


02

推动人工智能安全治理的协调一致

人工智能的安全治理需要政府监管、行业自治、企业自律以及社会监督的共同努力。政府监管要确保人工智能的发展不损害公共利益,行业自治则需要行业内的自律机制,以维护行业的健康发展。企业自律是企业对自身行为的自我约束,而社会监督则是公众对人工智能发展过程中可能出现的问题进行监督和反馈。


例如,谷歌的人工智能原则明确了公司在人工智能发展中应遵循的伦理标准,包括避免造成或加剧不公平的偏见等。这种企业自律不仅有助于提升企业形象,也是对社会责任的承担。


03

开展人工智能安全国际合作

在全球化的今天,人工智能的发展已经不再是单一国家或地区的问题,而是需要国际社会的共同关注和合作。通过国际合作,可以共享研究成果,共同制定国际标准,引导人工智能技术朝着有利于人类文明进步的方向发展。


例如,联合国教科文组织在2019年启动了“人工智能伦理全球对话”,旨在促进全球范围内对人工智能伦理问题的讨论和共识形成。这种国际合作有助于形成全球性的人工智能伦理框架,为技术的发展提供指导。


内容推荐


低空经济“腾飞”,需要补齐哪些短板?

看见数智内蒙:践行“信号升格”

光联世界:光器件行业的科技革命与市场崛起



继续滑动看下一个
飞象网
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存