AI伦理问题的持续忽视

人工智能伦理的持续忽视

本周,一个标题引起了我的注意:“AI图像生成器正在以儿童的暴露照片进行训练。”原来,用于训练AI图像生成器的数据集LAION中包含数千张涉嫌儿童性虐待的照片。虽然LAION的背后团队已经删除了这些数据并承诺删除冒犯性材料,但这一事件凸显了生成型AI产品在伦理方面缺乏考虑。

随着非代码AI模型创建工具的普及,训练生成型AI模型变得非常容易。虽然这可能加快了将模型推向市场的过程,但也引发了伦理关注。在伦理上开发AI需要与所有相关利益相关者合作,包括受到AI系统影响的边缘化群体。

不幸的是,许多AI发布决策将股东的利益置于伦理学家之上。其中例子包括微软的AI聊天机器人Bing Chat在发布时发表的冒犯言论,以及谷歌的ChatGPT竞争对手提供过时的、种族主义的医疗建议。OpenAI的图像生成器DALL-E也显示出英美中心主义的证据。

在追求AI卓越的过程中,正在造成伤害,这是由华尔街对AI卓越的观念驱动的。希望欧盟的AI法规,威胁对某些AI指南不合规的企业征收罚款,能够帮助解决这些问题。然而,走向AI伦理的道路漫长而艰难。

除了上述故事,这里还有一些其他与AI相关的新闻:

  • 2024年AI的预测
  • 禁止AI模仿人类行为
  • 微软Copilot的音乐创作能力
  • Rite Aid被禁止使用面部识别技术
  • 欧盟向AI创业公司提供计算资源
  • OpenAI设立安全咨询小组
  • 与加州大学伯克利分校的Ken Goldberg关于人形机器人和机器人行业趋势的问答
  • CIO对于采用企业级AI采取谨慎态度
  • 新闻出版商因反竞争行为起诉谷歌
  • OpenAI与Axel Springer合作培训其生成型AI模型
  • 谷歌将其Gemini模型与更多产品和服务整合起来

在研究领域,丹麦的一项名为life2vec的研究利用机器学习技术预测一个人生活的方方面面,而Coscientist则自动化化学实验室工作。谷歌还通过FunSearch进行数学发现的前沿领域研究,通过StyleDrop复制生成图像风格,以及通过VideoPoet进行视频任务。

瑞士的研究人员正在使用AI模型利用卫星图像估计积雪深度,而在医疗保健中应用AI时需要注意偏见的传播。最后,一个由Bard编写、由VideoPoet呈现的短篇小说展示了AI生成内容的潜力。

下一页
上一页