评论:ChatGPT -炒作之后是艰苦的工作

3分钟读取

Apexon卓越人工智能研发中心负责人Atif Farid Mohammad博士说,世界上没有一个行业不会受到生成式人工智能的影响,数字工程领域就是一个很好的例子。

AdobeStock

StableDiffusion和ChatGPT等程序将生成式人工智能推向了公众意识。尽管不可避免地会大肆宣传,但这些使用大量数据集生成内容的人工智能系统的部分吸引力在于它们的直接可访问性。任何人,不仅仅是数据科学家,都可以使用它们。许多领域的领域专家都热情地展示了它在销售、营销、网页设计、法律、IT、人力资源等方面的广泛应用。

用生成式人工智能加速数字化

世界上没有一个行业不会受到生成式人工智能的影响。数字工程领域就是一个很好的例子。软件工程中的人工智能并不新鲜。使大型语言模型(如ChatGPT)与众不同的是它们在代码生成、错误检测、自然语言处理、文档编制和测试等任务中的高级自主程度。

通过加快软件开发、实现和基础设施的自动化,组织可以加速其数字演进,并满足更新、改进和全新数字产品的需求。节省了时间,提高了生产率,而此时企业正苦苦挣扎数字技能短缺

在其他业务领域迎头赶上

可以理解的是,数字工程师可能会以惊奇和恐惧的目光看待ChatGPT及其coding-specific替代品.尽管我们仍处于人工智能学习曲线的早期阶段,但数据集和模型正在迅速发展。考虑到用于训练ChatGPT的新一代GPT(生成式预训练转换器)模型的每个版本所取得的技术飞跃,很容易猜测——下一个是什么?

然而,就在企业竞相试验人工智能功能的同时,它们也需要为其诸多后果做好准备。这些将影响流程、政策和人员。

信任、透明和采纳

可以创建新内容(图像、视频、文本或代码)的ML算法在道德、隐私和所有权方面提出了重大挑战。监管机构正在努力追赶人工智能的进步。组织有一个抓住主动权的黄金机会,展示他们的人工智能模型是公平和透明的。

创建和运行一个确保信任的政策框架可能是成功的关键。分析公司Gartner提倡一种被称为AI TRiSM的方法,即AI信任、风险和安全管理。到2026年,它预计实施AI TRisM的组织将实现a人工智能使用率提高50%实现业务目标和用户接受度。

隐私和安全也是人们关注的主要领域。深度造假问题不仅是立法者、政府和企业尚未完全解决的问题,而且人工智能驱动的安全实践可能会使组织面临隐私泄露,并引发有关问责制的复杂问题。

生成式人工智能算法通过观察日常生活中显示的习惯,无论是通过相机、苹果手表、麦克风等,来理解和塑造人们生活中发生的大部分事情。然而,生成式AI技术还没有准备好面对可能出现的法律和伦理挑战,这一领域需要更多的研究。这类问题包括通过虚假图片和视频传播歪曲的叙事,伤害个人及其权利,误导公众。

最后,在蓬勃发展的人工智能领域,所有权和知识产权是激烈竞争的挑战。在涉及生成式AI的任何协议中,建立所有权和使用权都是至关重要的。一般来说,如果企业拥有生成式AI模型,其内容也将属于该企业。然而,如果用于训练模型的数据是由其他人拥有的,或者是受版权保护的,情况就会变得更加复杂。

人工智能创新的多学科方法

生成式人工智能模型将改变每一个部门和每一个工作角色——数字工程就是一个最好的例子。随着这些类型的人工智能模型明显有可能大幅降低成本、加快生产速度并带来竞争优势,各组织都做出了兴奋和紧迫的回应。

现在确实是企业尝试生成式人工智能应用的理想时机。在技术层面,许多企业会发现,在他们的数字基础设施能够真正利用先进的人工智能模型之前,还有一些基础工作要做。然而,充分发挥其潜力需要组织解决透明度和用户接受度等问题。

因此,他们的战略应该三管齐下。第一,掌握AI模型维护与集成的技术层面。其次,开发一个强有力的治理框架,包括管理道德、法律和信任方面的工具、政策和协议。第三,实施员工参与战略,解决用户采用和接受问题。

Atif Farid Mohammad博士-卓越人工智能研发中心负责人,Apexon