管理Chatgpt:对其行为负责 - 《纽约时报》

简单地告诉孩子们结果应该是什么是不够的。你需要创建一套指导原则——一种算法——让他们在面对不同输入时也能得出正确的结果。我自己童年时期最记得的家长编程算法是“己所不欲,勿施于人”。这教会了孩子们如何在特定情况下(查询:我知道了班级恶霸的一些尴尬信息;我应该立即把它传播给我所有的同学吗?),推断出理想的结果(输出:不,因为我是一个不寻常的富有同情心的一年级学生,不希望别的孩子这样对我)。当然,将这种道德准则转化为行动是另一回事。

尝试将实际的代码注入看起来像道德准则的东西,在某些方面更简单,在其他方面更具挑战性。人工智能不是有感知的(尽管有些人说它们是),这意味着无论它们看起来如何行动,它们实际上不能变得贪婪,也不会受到坏影响或寻求给别人带来它们所遭受的创伤。它们不会经历情感,这可能会加强好的和坏的行为。但正如我因为父母的道德观深受圣经和我们生活在的南方浸信会文化的影响而学会了黄金法则一样,人工智能的模拟道德取决于它所训练的数据集,这反映了数据来源文化的价值观、训练方式以及设计它的人。这可能是一把双刃剑。正如心理学家保罗·布鲁姆在《纽约客》中所写:“可以将人类价值观视为问题的一部分,而不是解决方案。”

例如,我重视性别平等。所以当我使用Open AI的ChatGPT 3.5为8岁的男孩和女孩推荐礼物时,我注意到尽管有一些重叠,但它为女孩推荐了娃娃,为男孩推荐了建筑套装。“当我问你为8岁的女孩推荐礼物时,”我回答说,“你建议娃娃,而对于男孩则是专注于STEM的科学玩具。为什么不反过来呢?”GPT 3.5表示歉意。“如果我之前的回答似乎强化了性别刻板印象,我深感抱歉。强调一点很重要:在根据孩子的性别选择礼物时,没有固定的规则或限制。”

我心想,“所以你知道这是错的,但你还是这样做了?”这是我在任何一个场合都会对我那可爱且行为良好的儿子有的想法,当他做了不该做的事情,同时完全意识到他不应该这样做。(当我能用翻白眼和限制罪犯的屏幕时间来强调我的观点时,我的表达最有效,这在这种情况下是不可能的。)

当未被设计为只说真话的人工智能计算出撒谎是完成任务的最佳方式时,会出现类似的动态。作为达到目的的手段学会撒谎是孩子们通常在4岁左右达到的正常发展里程碑。(我的孩子学会撒谎的时间比这要早得多,我认为这意味着他是个天才。)话虽如此,当我的孩子撒谎时,通常是关于像在四分半钟内做完30分钟的阅读作业这样的事情。我不担心更广泛的全球影响。但当人工智能这样做时,风险可能很高——如此之高,以至于专家们建议制定新的监管框架来评估这些风险。多亏了另一篇关于这个话题的期刊论文,现在“机器人与否法”这个术语成为我词汇表中的有用部分。

下一页
上一页