随著人工智慧的不断快速发展,围绕这些改变世界的创新的开发和部署的伦理问题正成为人们更加关注的焦点。

在北美人工智慧与大数据博览会之前接受采访时,人工智慧公司Pryon的执行长兼创始人 Igor Jablokov 正面解决了这些紧迫的问题。
人工智慧的关键道德挑战
当被问及最关键的道德挑战时,雅布洛科夫表示:“没有一个,也许有近 20 个。”他概述了一系列必须小心应对的潜在陷阱——从人工智慧的幻觉和谎言的排放,到资料隐私的侵犯和专有资讯培训中的智慧财产权泄露。
雅布洛科夫表示,偏见和对抗性内容渗透到训练资料中是另一个主要担忧。嵌入式代理和即时注入攻击等安全漏洞以及大型语言模型的极端能源消耗和气候影响也在他的担忧清单中名列前茅。
Pryon 的起源可以追溯到二十多年前现代人工智慧的最早兴起。 Jablokov 之前在 IBM 领导过一个高阶人工智慧团队,他们设计了后来成为 Watson 的原始版本。 「他们没有批准它。因此,在我的沮丧中,我离开了,成立了我们最后一家公司,」他回忆道。该公司当时也称为 Pryon,后来成为亚马逊第一家与人工智慧相关的收购公司,诞生了现在的 Alexa。
Pryon 目前的化身旨在透过专注于关键基础设施和高风险用例的负责任设计来应对人工智慧的道德困境。 「[我们想要]为更关键的基础设施、重要的工人和更严肃的追求创造一些特意强化的东西,」贾布洛科夫解释道。
一个关键要素是为企业提供对其资料环境的灵活性和控制。 「我们为他们提供如何使用平台的选择……从多租户公有云到私有云,再到本地部署,」Jablokov 说。这使得组织可以在需要时将高度敏感的资料隔离在自己的防火墙后面。
Pryon 也强调可解释的人工智慧和可验证的知识来源归属。 「当我们的平台揭示答案时,你可以点击它,它总是会转到底层页面并准确地突出显示它从哪里学到了一条讯息,」贾布洛科夫描述道。这使得人类能够验证知识的来源。
在能源、制造和医疗保健等领域,Pryon 在人工智慧生成的指导传递给第一线工人之前实施了人机互动监督。贾布洛科夫举了一个例子,在资讯到达技术人员之前,「主管可以仔细检查结果,并基本上给予批准徽章」。
确保负责任的人工智慧发展
贾布洛科夫强烈倡导新的监管框架,以确保负责任的人工智慧开发和部署。他在欢迎白宫最近发布的行政命令的同时,也表达了对产生人工智慧风险的担忧,如幻觉、静态训练资料、资料外泄漏洞、缺乏存取控制、版权问题等。
Pryon 一直积极参与这些监管讨论。 「我们正在向混乱的政府机构进行反向管道,」贾布洛科夫说。 “随著监管环境的推出,我们正在积极贡献我们对监管环境的看法……我们通过表达与生成人工智能使用相关的一些风险来表明这一点。”
关于不受控制的、存在的「人工智慧风险」的可能性——正如一些人工智慧领导者所警告的那样——Jablokov 对Pryon 的治理方法采取了相对乐观的语气:「我们一直致力于可验证的归因…从企业自己的数据中提取资讯内容,以便他们了解解决方案的来源,然后他们决定是否用它做出决定。
这位执行长坚决地将 Pryon 的使命与新兴的开放式对话人工智慧助理区分开来,其中一些助手引发了关于幻觉和缺乏道德约束的争议。
“我们不是小丑学院。我们的产品旨在进入地球上一些更恶劣的环境,」贾布洛科夫直言不讳地说。 “我认为没有人会觉得在急诊室里让医生在 ChatGPT、Bing、Bard 中输入查询感到舒服……”
他强调了主题专业知识和情绪智商在高风险的现实世界决策中的重要性。 「你需要一个拥有多年治疗与你目前所患疾病类似的经验的人。你猜怎么著?你喜欢这样一个事实:他们也关心让你变得更好的情感品质。
在即将举行的人工智慧和大数据博览会上,Pryon 将推出新的企业用例,展示其跨能源、半导体、制药和政府等行业的平台。 Jablokov 开玩笑说,除了端到端企业产品之外,他们还将揭示“使用 Pryon 平台的不同方式”,包括为开发人员提供潜在的较低级别的访问权限。
随著人工智慧的领域从狭窄的应用迅速扩展到更通用的功能,解决道德风险将变得更加重要。 Pryon 对治理、可验证的知识来源、人类监督以及与监管机构的合作的持续关注可以为跨行业更负责任的人工智慧开发提供范本。
您可以在下面观看我们对伊戈尔·雅布洛科夫 (Igor Jablokov) 的完整采访:

想向产业领导者了解更多关于人工智慧和大数据的知识吗?查看在阿姆斯特丹、加州和伦敦举办的人工智慧与大数据博览会。该综合活动与BlockX 、数位转型周和网路安全与云端博览会等其他领先活动同期举办。
在此探索由 TechForge 提供支援的其他即将举行的企业技术活动和网路研讨会。
伊戈尔·雅布洛科夫 (Igor Jablokov) 的文章《Pryon:建构负责任的人工智慧未来》首先出现在《人工智慧新闻》上。




