目录
目录
2024年的前9个AI争议
Openai vs Elon Musk(2024年3月)
Grok ai错误地指责NBA星星狂欢(2024年4月)
Openai vs Scarlett Johansson(2024年5月)
Google的AI概述争议(2024年5月)
AI的误导信息
麦当劳的末端IBM直通订单测试(2024年6月)
Donotpay“机器人律师”争议(2024年6月)
FTC的投诉
Ilya Sutskever推出了安全超级智能Inc(SSI)(2024年6月)
Clearview AI争议(2024年9月)
反对Clearview AI的反弹
亚马逊的AI招聘工具偏见(正在进行)
结尾
首页 科技周边 人工智能 2024年的前9个AI争议-Analytics Vidhya

2024年的前9个AI争议-Analytics Vidhya

Mar 13, 2025 am 09:51 AM

2024年的前9个AI争议-Analytics Vidhya

2024年标志着人工智能的变革时期,以巨大的创新和挑战为标志。估计5000亿美元的全球AI市场价值创造了无数的工具,应用程序以及改变了行业和我们日常生活的公司。这些技术奇迹还伴随着争议的浪潮,引发了有关道德,社会影响和对AI发展的问责制的辩论。本文涵盖了2024年的主要AI争议。

目录

  • 2024年的前9个AI争议
    • Openai vs Elon Musk(2024年3月)
    • Grok ai错误地指责NBA星星狂欢(2024年4月)
    • Openai vs Scarlett Johansson(2024年5月)
    • Google的AI概述争议(2024年5月)
    • 麦当劳的末端IBM直通订单测试(2024年6月)
    • Donotpay“机器人律师”争议(2024年6月)
    • Ilya Sutskever推出了安全超级智能Inc(SSI)(2024年6月)
    • Clearview AI争议(2024年9月)
    • 亚马逊的AI招聘工具偏见(正在进行)
  • 结尾

2024年的前9个AI争议

从备受瞩目的诉讼和企业丑闻到深层诉讼的道德困境以及AI决策中的错误,以下是与AI相关的最高争议,在时间顺序上安排了:

Openai vs Elon Musk(2024年3月)

特斯拉首席执行官埃隆·马斯克(Elon Musk)和萨姆·奥特曼(Sam Altman)在2015年将Openai共同创立了非营利组织,其任务是推动人工智能以促进更大的利益。但是,马斯克在2018年离开该组织标志着两者之间有争议的关系的开始。此后,马斯克(Musk)对Openai向营利性模式,其领导层以及与Microsoft等公司的合作提出了担忧。 2024年3月,马斯克通过针对Openai提起诉讼来升级这一争执。他指控在自动驾驶模型中滥用特斯拉的专有数据。

这种竞争不仅与人工智能技术有关,还反映了个人紧张局势。马斯克称阿尔特曼为“山姆斯·萨姆”。而阿尔特曼(Altman)在采访中将马斯克(Musk)标记为“恶霸”。批评家认为,这一争执是由他们的竞争野心所推动的。特别是马斯克建立了Xai,这是Openai的直接竞争对手。这种情况突出了AI治理,竞争和道德AI发展的广泛含义。

这就是为什么埃隆起诉Openai:

“似乎很奇怪的是,某事可以是一个非营利的开源,并且以营利性封闭的来源以某种方式改变了自己。”
- @elonmusk pic.twitter.com/zdghbq0h8e

- Tonya de Vitti(@TonyAdeVitti)2024年3月6日

另请阅读:什么是负责人AI?为什么我们需要它?

Grok ai错误地指责NBA星星狂欢(2024年4月)

2024年4月,当Grok AI报道NBA明星克莱·汤普森(Klay Thompson)曾参与砖瓦破坏狂潮时,一种监视工具,以帮助警察陷入困境。这一切之所以开始,是因为Grok在讨论汤普森(Thompson)对阵萨克拉曼多国王队(Sacramento Kings)的一场比赛中的糟糕表现时误解了篮球lang语,在十项尝试中命中率为零。 “射击砖”一词在篮球中是一个常见的惯用表达,可以描述一个不成功的射门。 AI误解了这句话是实际故意破坏的一个实例,涉及在萨克拉曼多的家中扔砖。

毫无根据的报告指出,房屋已破坏,当局正在调查事件。这个虚假的故事在社交媒体上广泛传播,导致大量用户处于困惑和欢笑状态。许多人嘲笑了X上的情况。他们开始制作模因和搞笑帖子,传播了不真实的故事。尽管上下文很容易被误解,但格罗克的报告仍然活了好几天。因此,AI系统如何看待人类语言的细微差别和背景来强调问题。

对Grok AI的强烈反对很快就出现了。行动主义和评论要求采用更强大的监管标准和AI系统更好的审计实践。他们引用了偏见的培训数据固有的一些危险。例如,来自少数社区的人的格罗克(Grok)被标记不成比例,使破坏性的刻板印象永久存在,并传播了不真实的人。 Grok事件围绕着AI失败的含义开展了更广泛的谈判。

Twitter的新型AI驱动趋势标签认为克莱·汤普森(Klay Thompson)被指控与砖块破坏房屋

这是在对阵国王pic.twitter.com/kslnh4nqj8的0-10之后。

- 文化渴望吗? (@culturecrave)2024年4月17日

Openai vs Scarlett Johansson(2024年5月)

斯嘉丽·约翰逊(Scarlett Johansson)在得知Openai用她的声音为AI生成的病毒视频广告中霍克(Hawk)的假产品提起诉讼,在该产品中,她的声音在未经她的知识或允许的情况下被合成。视频广告在社交媒体之间遍布遥远,并提出了有关所使用的深击技术的关键法律和道德问题。

在法庭上,约翰逊的律师声称,未经授权使用她的肖像侵犯了她的隐私和宣传权。该诉讼阐明了滥用Deepfake技术的潜力,并引起了一个更普遍的问题:如何被名人和公众人物滥用,未经同意就可以轻松地重复其身份。它开始了有关AI生成的内容和协议的更清晰法规的辩论,以同意人们的肖像。

这一AI争议导致OpenAI宣布计划修改其数据集政策,以确保更严格的同意要求向前发展。该事件标志着人工智能和深击时代关于知识产权的持续辩论的关键时刻,强调了AI发展中道德标准的必要性。

我们已经听到了有关如何在Chatgpt(尤其是Sky)中选择声音的问题。我们正在努力暂停天空的使用。

阅读有关我们如何选择这些声音的更多信息:https://t.co/r8wwwzju36l

- 2024年5月20日Openai(@openai)

Google的AI概述争议(2024年5月)

2024年5月,Google在推出名为AI概述的新的AI生成的功能方面遭受了严重的反对。新功能旨在总结一些句子的搜索结果,以使用户更容易在更少的时间内找到答案。但是,在发布后的几天内,一系列荒谬和荒谬的反应变得臭名昭著,这些反应使公众对AI生成的内容的信任受到质疑。

AI的误导信息

根据用户的说法,AI在许多主题上显示了有关以下许多主题的误导性信息:

  1. 历史虚假陈述:在回答有关美国穆斯林总统的问题时,AI说奥巴马是其中唯一的一个,实际上是不正确的,缺乏细微差别。
  2. 荒谬的建议:被要求建议如何防止奶酪滑落披萨之后,AI建议添加“⅛杯无毒胶水”,显然是荒谬的答案。其他荒谬的建议包括为其矿物质含量食用岩石,并将汽油放入意大利面条以供风味。
  3. 危险的建议: AI还发表了错误的说法,即从飞机跳下来的降落伞不比背包更好,这突出了依靠这种不正确信息的危险。

当用户对这种情况发表自己的怀疑和沮丧时,这些虚假性在社交媒体上引起了巨大的嘲笑。许多人通过质疑Google的AI系统及其提供信息能力的完整性来升级这种情况。

它看到了这种愤怒,通过承认Google发出的回应问题来接受对AI概述面临的问题的批评。 “这些问题源于信息差距,当没有优质的来源来支持诸如罕见的查询之类的事情时,有时会带来不足的问题,并且通常会带来不足的质量来源,并且通常值得信赖的网站来产生“不良”信息。”

Google表示将对其系统的监督和质量检查进行一系列评论和升级。这也将进一步限制更具体的搜索查询的应用程序,同时继续致力于进一步的无错误输出的开发。

我知道我已经对AI有偏见,但是在尝试了几次Google的事情后,确实很糟糕。就像在某些时候,所有道德和经济的担忧都只是将“这不起作用”的公寓置于后座。 https://t.co/fgudh2nxci

- 克里斯·穆尼(Chris Mooney)?

另请阅读:Google -2024 Roundup的前6个AI更新

麦当劳的末端IBM直通订单测试(2024年6月)

麦当劳(McDonald's)于2024年6月取消了对IBM AI驱动的语音订单系统的测试,此前重复出现了准确的问题和客户满意度。这个概念是在更简单但面临重大的操作问题上进行订购过程。

测试提出了以​​下关键问题:

  1. 命令误解:客户抱怨他们的订单是由AI系统造成的或不间断的。从而导致直通车窗的延迟和刺激。
  2. 客户体验:错误不仅是给客户烦恼的原因,而且导致等待时间增加。这与AI的实施中的效率提高到截然相反。

当麦当劳结束审判时,行业分析师提出了有关AI技术准备大量采用客户服务角色的问题。许多分析师指出,尽管AI具有潜在的好处,但如果没有充分解决,其当前的局限性可能会导致严重的操作中断。

麦当劳雇用了IBM通过订购系统开发基于AI的驱动器。

它的失败率很高,现在MCD正在退出

很明显,我们应该使用AI,而IBM是错误的供应商。

我认为“没有人因购买IBM而被解雇”不再适用。 pic.twitter.com/WH41HSTOYV

- 2024年6月17日Sheel Mohnot(@pitdesi)

Donotpay“机器人律师”争议(2024年6月)

2024年6月,Donotpay是合法的AI平台,将自己称为“世界上第一位机器人律师”。由于对其主张和产品的多次法律和公众审查,它在其最大的AI争议之一中发挥了最大的作用。该公司最初是由约书亚·布劳德(Joshua Browder)于2015年成立的,最初开始旨在帮助用户打击法律挑战,例如免费争夺停车票和免费生产法律文件。但是,据报道,人工智能提供了不好的法律建议。这些法律建议可能会导致依靠其服务的人造成严重的局势。

FTC的投诉

联邦贸易委员会介入后加深的争议加深了。他们声称Donotpay从事未经授权的法律实践,未能实现诺言。 FTC的投诉指出了几个要点:

  1. 误导性的主张: Donotpay宣传其服务能够生成“ Ironclad”法律文件,并提供与人类律师相当的建议。但是,FTC发现AI没有经过足够的测试,以确保其输出在法律上是合理的或相当于合格律师所产生的。
  2. 消费者危害:用户报告了AI生成的文档起草不正确或包含不准确性的实例,使其在法律背景下无法使用。一位原告指出,由于其不合格的质量,他无法使用Donotpay创建的文件。
  3. 和解协议:由于FTC调查结果,Donotpay同意支付193,000美元的罚款,并限制不告诉在2021年至2023年之间使用该服务的消费者,Donotpay出售的法律产品的限制。它还同意停止对未来与Donotpay律师更换人类律师的无支持的主张。

这一丑闻提出了有关在法律等高风险领域中使用AI的可行性和道德的关键问题。批评家认为,AI可用于执行某些任务,但不应作为替代专业法律建议的销售。该事件在代表其能力和保护消费者方面就AI公司的责任引发了辩论。

Hot Take:我不确定我不太关心对Donotpay的未经授权的法律索赔实践,就像我对该技术无法正常工作的指控所做的那样。

[长线警告。]

- Tessa Molnar(@TessavMolnar)2023年3月10日

另请阅读:法律部门的人工智能革命:聊天机器人在法庭上占据中心地位

Ilya Sutskever推出了安全超级智能Inc(SSI)(2024年6月)

2024年6月,OpenAI的联合创始人Ilya Sutskever宣布推出Safe Unsertelligence Inc.(SSI),该计划旨在优先考虑人工智能发展的道德框架。这一举动是在围绕Openai的各种争议之后对先进AI技术的安全性和道德意义的越来越担忧。 SSI的任务是确保高级AI系统负责任地开发和部署。主要目标包括:

  1. 建立道德准则: SSI旨在建立整体道德框架,以通过安全和问责制指导AI发展实践。
  2. 促进透明度:该小组将主张以更透明的方式进行AI操作的原因,这将使利益相关者详细了解AI如何做出决策和工作。
  3. 决策者参与: SSI将努力与政策制定者和商业领袖互动,以制定AI技术的监管政策。

支持者称赞萨斯克佛的举动及时而急需,以解决AI周围的道德问题。但另一方面,批评者将其视为对Openai的争议的反应。他们质疑SSI是否真正地采取行动改变现状,或者只是在采取公共关系策略来帮助挽救Openai强烈反对。

2/8 Ex-Openai联合创始人启动自己的AI公司

离开Openai仅一个月后,前共同创始人Ilya Sutskever与Daniel Gross和Daniel Levy建立了Safe Superintelligence Inc.。 pic.twitter.com/nfx1rtqxup

- 2024年6月21日AI Edge(@The_AI_EDGE)

Clearview AI争议(2024年9月)

2024年9月,臭名昭著的面部识别公司Clearview AI的愤怒浮出水面,他最近的启示是刮擦毫无戒心的个人以扩大面部数据库的数据的启示,遭到了越来越多的火灾。主要向执法机构提供软件的公司已被要求获得未经同意从互联网和社交媒体网站获取图像的手段。这一争议引起了人们关于侵犯隐私和这种技术在执法部门中应用的道德规范的辩论。

据报道,Clearview AI托管了从许多在线资源中删除的300亿张图像。这样的行为引起了倡导者和民权组织之间的严重警报。他们对Clearview对法律和道德标准造成的违规行为提出了担忧。 Clearview未经人们同意汇总图像。这进一步创造了批评家认为可以在不知道或允许的情况下对他们进行跟踪和确定的个人的“永久阵容”。

反对Clearview AI的反弹

反对Clearview AI的反弹并不是什么新鲜事。该公司在各个司法管辖区都面临着多项诉讼和监管行动。例如:

  • 罚款和禁令: 2024年9月,荷兰当局因建立非法面部识别数据库而罚款3050万欧元。荷兰数据保护局强调,面部识别技术是高度侵入性的,不应不加区分地部署。
  • 定居点:较早的定居点包括与ACLU的协议。它禁止Clearview将其服务出售给私人和企业。尽管采取了此类诉讼,但Clearview仍保持活跃,对制定法规是否足够有效。

丑闻引起了公民自由团体和激进主义者的广泛谴责,他们正在努力寻求更强大的管理面部识别技术的监管措施。许多人说,Clearview的实践体现了令人不安的趋势,在这些趋势中,隐私权被搁置为监视能力。法律斗争表明迫切需要进行全面的立法来保护人们的生物识别数据。

Clearview AI因非法收集面部数据而被荷兰当局罚款3370万美元,违反了欧盟隐私法。该公司否认不当行为。

发现我如何在AI解决方案中出售$ 1B!立即获取免费副本!

- 诺埃尔?拉丁语中的AI? (@noellerussell_)2024年10月8日

亚马逊的AI招聘工具偏见(正在进行)

最近,亚马逊的AI招聘工具因在招聘中偏向性别和种族而受到批评。已经进行了几次纠正疾病的尝试。但是,这表明它对男性候选人有利于针对各个方面相同的女性的技术职位。这是对AI驱动决策过程中公平和问责制的严重质疑。

关于亚马逊AI招聘工具的争议始于发现该算法是对十年来提交的简历进行培训的,主要是由男性候选人提交的。因此:

  1. 性别偏见:该工具对女性申请人产生了偏见。它正在惩罚包括与妇女经验或资格相关的条款的简历。
  2. 种族差异:同样,由于培训数据中嵌入的历史偏见,来自少数族裔背景的候选人面临着劣势。

这使亚马逊最终放弃了该工具,但只有在公平公平的招聘实践中证明其无效之后。即使这些偏见继续面临调整,亚马逊开发的AI招聘工具也从未见过它的最后日子,因为批评不平等在招聘方面得到了加强而不是减少。

亚马逊创建了一个用于简历排序的AI,以使过程更有效。它教会使用过去的招聘实践作为例子

人工智能运作完美。它精确地复制了给出的示例。因此,它开始对女性进行描述。

示例 @ 8:16https://t.co/eupwmjmkcb

- Askaubry? ? (@ask_aubry)2023年2月15日

结尾

当我们进入2025年时,2024年的AI争议是AI社区的重要教训。尽管新的一年将带来自己的挑战,但这些事件凸显了需要更具道德,透明和负责的AI发展的需求。这些AI争议提醒公司和创新者,赌注比以往任何时候都高。对于一个错误,可能会侵蚀公众的信任并造成现实世界的伤害。然而,随着争议的机会。通过解决这些弱点,公司可以创建创新的技术,同时尊重人类的尊严,隐私和社会规范。尽管旅程将具有挑战性,但它仍然具有更周到,道德和有影响力的AI驱动的未来的希望。

以上是2024年的前9个AI争议-Analytics Vidhya的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

<🎜>:泡泡胶模拟器无穷大 - 如何获取和使用皇家钥匙
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora:巫婆树的耳语 - 如何解锁抓钩
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系统,解释
3 周前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

热门话题

Java教程
1668
14
CakePHP 教程
1426
52
Laravel 教程
1328
25
PHP教程
1273
29
C# 教程
1256
24
10个生成AI编码扩展,在VS代码中,您必须探索 10个生成AI编码扩展,在VS代码中,您必须探索 Apr 13, 2025 am 01:14 AM

嘿,编码忍者!您当天计划哪些与编码有关的任务?在您进一步研究此博客之前,我希望您考虑所有与编码相关的困境,这是将其列出的。 完毕? - 让&#8217

GPT-4O vs OpenAI O1:新的Openai模型值得炒作吗? GPT-4O vs OpenAI O1:新的Openai模型值得炒作吗? Apr 13, 2025 am 10:18 AM

介绍 Openai已根据备受期待的“草莓”建筑发布了其新模型。这种称为O1的创新模型增强了推理能力,使其可以通过问题进行思考

pixtral -12b:Mistral AI&#039;第一个多模型模型 - 分析Vidhya pixtral -12b:Mistral AI&#039;第一个多模型模型 - 分析Vidhya Apr 13, 2025 am 11:20 AM

介绍 Mistral发布了其第一个多模式模型,即Pixtral-12b-2409。该模型建立在Mistral的120亿参数Nemo 12B之上。是什么设置了该模型?现在可以拍摄图像和Tex

如何在SQL中添加列? - 分析Vidhya 如何在SQL中添加列? - 分析Vidhya Apr 17, 2025 am 11:43 AM

SQL的Alter表语句:动态地将列添加到数据库 在数据管理中,SQL的适应性至关重要。 需要即时调整数据库结构吗? Alter表语句是您的解决方案。本指南的详细信息添加了Colu

如何使用AGNO框架构建多模式AI代理? 如何使用AGNO框架构建多模式AI代理? Apr 23, 2025 am 11:30 AM

在从事代理AI时,开发人员经常发现自己在速度,灵活性和资源效率之间进行权衡。我一直在探索代理AI框架,并遇到了Agno(以前是Phi-

超越骆驼戏:大型语言模型的4个新基准 超越骆驼戏:大型语言模型的4个新基准 Apr 14, 2025 am 11:09 AM

陷入困境的基准:骆驼案例研究 2025年4月上旬,梅塔(Meta)揭开了Llama 4套件的模特套件,具有令人印象深刻的性能指标,使他们对GPT-4O和Claude 3.5 Sonnet等竞争对手有利地定位。伦斯的中心

OpenAI以GPT-4.1的重点转移,将编码和成本效率优先考虑 OpenAI以GPT-4.1的重点转移,将编码和成本效率优先考虑 Apr 16, 2025 am 11:37 AM

该版本包括三种不同的型号,GPT-4.1,GPT-4.1 MINI和GPT-4.1 NANO,标志着向大语言模型景观内的特定任务优化迈进。这些模型并未立即替换诸如

多动症游戏,健康工具和AI聊天机器人如何改变全球健康 多动症游戏,健康工具和AI聊天机器人如何改变全球健康 Apr 14, 2025 am 11:27 AM

视频游戏可以缓解焦虑,建立焦点或支持多动症的孩子吗? 随着医疗保健在全球范围内挑战,尤其是在青年中的挑战,创新者正在转向一种不太可能的工具:视频游戏。现在是世界上最大的娱乐印度河之一

See all articles