马塞诸斯州大学波士顿

马萨诸塞州总检察长和马萨诸塞大学波士顿分校应用伦理中心讨论人工智能消费者保护


04/18/2024丹妮尔·比洛塔

马萨诸塞州总检察长安德里亚·乔伊·坎贝尔(Andrea Joy Campbell)与麻省理工大学波士顿应用伦理学中心哲学教授兼主任尼尔·艾斯科维茨(Nir Eiskovits)在炉边聊天,讨论人工智能(AI)如何影响消费者和公民权利。该中心的博士后Alec Stubbs主持了Campbell和Eiskovists之间的热烈讨论,讨论了人工智能出现的风险和好处、算法中的偏见以及数据保护。

Fireside Chat with AG Andrea Joy Campbell
图片来源:Javier Rivas

在介绍小组时,马塞洛校长Suárez-Orozco谈到了人工智能的兴起,它对我们生活的几乎每一个方面的影响,以及人工智能给高等教育带来的机会。他说,马萨诸塞大学波士顿分校的保罗·英格利希应用人工智能研究所不仅将支持将人工智能能力纳入课程,还将为学生提供他们在未来劳动力中茁壮成长所需的工具和技能。

Suárez-Orozco表示:“我们相信人工智能将继续做一些奇妙的事情,比如将经济生产力推向新的高度,推出创新技术,提高数百万人的生活质量。”“我们与人工智能的合作旨在确保马萨诸塞大学波士顿分校的教育培养应用人工智能改善我们生活方式的能力。”

看这里的炉边聊天。

总检察长坎贝尔表示,随着人工智能带来的好处,消费者和公民权利也会出现问题。她谈到了她的办公室如何处理人工智能以及可用的工具,以打击住房市场、工人权利和其他关注领域中由人工智能模型驱动的歧视行为。

“如果你有一个算法决策系统,它只是在没有完整背景的情况下提供信息,这很可能被用来对付你,”她说。“我们认为,我们的工具能够被用来进行更广泛的对话,召集人们解决特定问题,然后,当然,利用其他更有能力应对其他挑战的利益相关者。”

Campbell和Eiskovits讨论了公司如何使用社交媒体平台训练新的人工智能模型,以及这种类型的数据收集对消费者的影响。艾斯科维茨解释说,社交媒体公司的既得利益在于赚钱和股东利益最大化,而不是维护民主,这些公司正在积极寻找其他方法来收集数据,以训练人工智能模型来模仿人类的思维。

“对于Meta和X这样的公司来说,什么重要,对于司法部长以及司法部长所代表和为之工作的人来说,什么重要,两者之间存在脱节,”艾斯科维茨说。

“我们目前没有我们想要和需要的工具来让社交媒体平台对他们在那里发布的可能造成伤害、错误信息和破坏我们民主制度的内容负责,”总检察长坎贝尔说。“我们必须与立法机构合作,联邦层面的联邦贸易委员会对此表示关注,我们正在积极与他们合作。”

艾斯科维茨说,公司使用的人工智能模型可以操纵数据,使其产生偏见,但人工智能作为偏见的载体,有可能比其他偏见的载体更可逆。

“如果数据是固定的,这是一个很大的假设,如果模型是监督和固定的,人工智能可能比人类更少偏见,”艾斯科维茨说。“如果有经济和政治激励,它是有潜力的。”

“根据输入的内容以及向这些系统提供信息的人是谁,你有可能减少偏见,但我认为这是一个真正的挑战,”司法部长坎贝尔说。“另一个潜在的社会风险或危害是,你对一个系统的改善如此之大,以至于你仍然存在劳动力短缺问题。我们这里的一些人将不再从事同样的工作,因为你们将被技术取代,所以我们的工会和其他利益相关者正在考虑如何将我们的居民转移到其他就业机会。”

美国司法部长办公室发布了一份咨询报告,为国家消费者保护和其他法律如何适用于人工智能提供指导。该咨询澄清了人工智能开发者、供应商和用户必须如何遵守现有的国家消费者保护法、反歧视法和数据隐私法。司法部长坎贝尔谈到了她的办公室已经并将很快获得的咨询和工具,以妥善应对人工智能的影响。

“我们在马萨诸塞州和全国都有一些最先进、最有力的消费者保护法。我们的反歧视法是一样的,我们的数据隐私法相当广泛和广泛,”司法部长坎贝尔说。“我们发布这一建议是为了清楚地表明,对于这些新形式的技术,我们的法律绝对适用,我们有意执行这些法律。”