图片来自www.vpnsrus.com,作者为Mike MacKenzie
每天我都会看到技术专家和从业人员对人工智能的赞誉,却没有呼吁更多的监管,这让我想写一篇博客,介绍由分布式人工智能研究所(DAIR)于三月份组织的虚拟一日活动——“随机鹦鹉日”(Stochastic Parrots Day)。这个活动是为庆祝由Timnit Gebru博士、Emily M. Bender博士、Angelina McMillan-Major和Margaret Mitchell博士发表的论文“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”两周年而举办的。这篇论文因Timnit Gebru博士和Margaret Mitchell博士被谷歌解雇而广受关注,这也导致了DAIR研究所的成立——这是一个非营利性组织,旨在成为“一个独立、社区根植的人工智能研究空间,摆脱大型科技公司的普遍影响”(按照其网站的说法)。
在过去15年中,硅谷缺乏监管所带来的社会和政治后果已经非常明显,我们不能重蹈覆辙。我们需要就人工智能展开全球性的对话,而似乎我们的政治家都没有把这个问题作为优先考虑的事项,社会也没有准备好应对由科技公司发起的企业公关机器,这些公司有着将人工智能变成下一个大事的既得利益,而没有认真考虑它可能在实现目标的过程中造成的潜在危害。
自从这个活动举行以来,人工智能的辩论变得更加激烈,一封有争议的公开信呼吁暂停人工智能的发展,但这封信被“随机鹦鹉”论文的作者和其他研究人员驳回。你可以在这里阅读有关各种人工智能派系的简要概述。如果你想深入了解女性在这个被很多人认为是由白人男性专家运营的行业中所做出的贡献,请阅读这篇文章,其中包括人工智能伦理的时间线。
编辑:今天,白宫提出的AI权利法案(尚未写入法律)已经发布,拜登政府的顶级人工智能专家Alondra Nelson也对此进行了讨论,而AI Now研究所则发布了一份2023年的景观报告,提出了一项旨在“应对科技力量”的政策战略。
我试图在下面概括会议的内容,这个会议是通过Twitch直播的,大约有1500人参加。聊天室中非常活跃的对话证明了人们对AI城市大厅和更多多样化的公开对话的强烈需求。如果你想深入了解,可以在会议结束后编译的阅读清单中查找。回放可以在这里找到。
数据透明度
所有的专家都强调了来源数据的透明度的重要性,但这对于大型语言模型来说是很难记录的。正如Stochastic Parrots论文所指出的那样,“仅仅因为数据集很大,并不意味着它具有代表性,我们希望人们知道数据集可以歪曲现实并存在偏见”,Bender博士解释道。
由于虚假信息战争在全球范围内造成了非常现实的人类后果,因此让人们知道LLM的信息来自于何处,与其他经过验证的来源有何区别,显得更加紧迫。Bender博士补充道:“当Stability AI出现时,他们说‘我们希望它是人类知识的压缩版本’,但这是不可能的。向公众推销这些产品是不负责任的。”
暂停和评估,而不是扩大规模
与硅谷的口号“快速行动,打破一切”不同,主要的行动呼吁人们按下暂停按钮,但不是像那封臭名昭著的公开信那样要求暂停人工智能六个月,而是要质疑在牺牲伦理道德的情况下追求利润的竞争。Bender博士解释道:“我们的论文提出了一个问题,LLM何时会太大?当数据集太大而无法记录时。我们需要健全的数据信用、同意等等(……)我们需要倡导通过小型模型首先进行适当的监管。”
Timnit Gebru博士解释说,研究所对LLMS提出的问题并不是在质疑技术本身(与长期主义者和自称专家不同,他们认为人工智能注定会毁灭我们所有人),而是在质疑它们的构建、营销和使用方式。Gebru博士说:“LLM被推销为人类的替代品,我们必须问自己,谁在这个过程中受到了剥削,以及它是如何在市场上推出的。”# 被剥削的工人
其中一个专题讨论了匿名肯尼亚数据工人“Richard”的证言,他谈到了将数据标记和内容审核外包给外国公司的可怕工作条件和对心理健康的影响。他报告说,尽管因为工作内容而遭受创伤,但工人在试图为自己争取权益时受到了管理层的恐吓。他说:“我想让人们知道,招募的人都是弱势群体。AI受到了太多夸大宣传。在我工作的某些组织中,你可以看出一切都是为了利润和夸大其词。这就是他们得到这些弱势工人的方式。”你可以在这篇调查文章中了解更多相关问题:https://time.com/6247678/openai-chatgpt-kenya-workers/
《压迫算法》一书的作者Safiya Noble博士补充道:“这是一个涉及全球劳动力和经济的极其复杂的生态系统,我们还必须考虑软件和硬件之间的关系、采矿工人、电子垃圾处理人等等(…)科技行业花费数万亿美元,以防止这些谈话成为公众意识的前沿。我们应该抵制这些项目的完全整合,因为这会导致完全无法治理的局面。我们需要持怀疑态度,组织制定本地和国际层面的法律和政策,以保护社会和弱势群体,并对正在发生的资源提取进行问责。”
她还警告观众要警惕将这些LLM(大型语言模型)集成到我们的日常生活中成为一系列产品(正如谷歌宣布的那样),从而可能实现大规模监视。
教育
波士顿公立学校教师Belzie Mont-Louis分享了科技在获取教育平等方面的作用,特别是在疫情期间,但她现在的关注点在于“学生总是寻找漏洞”,特别是在阅读和写作方面。那么我们如何确保教育仍然是关于思考的呢?“这不是防止访问chatGPT,而是重新思考教育,使学生仍然可以发展批判性思维。” 目前,chatGPT正在增加低薪、人手不足的教师的工作量,他们必须对一切进行再次核查,而且不具备处理AI工具攻击的能力。
翻译工具Lesan.ai的联合创始人兼CTO,以及该研究所的研究员Asmelash Teka补充道:“作为来自提格雷(Tigray)的人,我认为在教育资源方面有很大的潜力。所以我仍然持乐观态度,但我希望确保这做得好。这些工具是为人类服务的,而不是代替人类。”
佐治亚理工学院机器学习中心副主任Mark Riedl补充道:“教育不是关于信息倾泻,而是关于关系和批判性思维。教师不应该被替换或能够一次性教授更多的课程,他们需要更小的教室,更多的个性化工作(…)解决方案不是扩大和破坏。当人们说AI将彻底改变教育时,我感到震惊。首先,你需要与你正在为之构建的人坐下来交谈。作为一名AI研究人员,你不知道人们的工作实际上是什么。”
聊天室中有人总结说:“缩小规模并参与,而不是扩大规模并破坏!”
那些资源匮乏的语言呢?
Teka提出了一个像提格雷这样的国家的观点,这个国家受到了种族灭绝的困扰,但几乎没有人谈论。他说:“对于我们(提格雷)来说,技术的获取非常重要。但是就LLM而言,如果我们用本地语言提出简单的查询,我们就得不到好的结果。社交媒体、Meta、Twitter等充满了令人讨厌的内容,这些内容促成了暴力事件。现在用chatGTP,我尝试用我们的语言,但它不起作用。我们被落下了,用的语言并不是我们自己的语言。在提格雷,我们的教育问题是如此不同。它是关于获取我们自己语言的书籍等。(...) 我们被这些科技公司抛弃了。”
AI炒作列车
Riedl补充道,关于AI炒作列车(由投资AI的科技公司和风险投资商推动):“想想科学精度的重要性。LLM正在查看自己的数据,这些数据不精确,但它被市场营销为前瞻性的推理。实际上,它是一种反向思维。例如,“预测”这个词并不真正适用。”
Asmelash Teka补充道:“我们让这些系统看起来很吸引人,但其核心是很多数据和人在做平凡的任务。例如,人们开始进行翻译,而这些系统正在使用这些翻译。那么AI带出了任务背后的人类是谁?”
现在,我们知道了像上面Richard的证言一样,这些工具的人类代价并不是那么隐蔽的。
国际监管问题
在一个专门讨论行动呼吁的专题中,基于肯尼亚的作家、政治分析家和活动家Nanjala Nyabola解释了国际监管和权力分配的重要性,因为许多没有立法框架的国家无法保护自己。她说:“在没有立法框架的非洲国家中,发生了误导性宣传活动。这些都是国家赞助的宣传活动,所以很难弄清楚(…)一些国家正在努力发展能力,但这是不平等的。卢旺达正在努力投资AI政策框架。但总的来说,为了AI的以人为中心的政策,有必要跨越地理界限进行交流。” 她还谈到了难民和移民面临监视风险的困境,以德国为例,该国是Palantir的大客户,正在使用AI跟踪难民。
工作和经济转型
就个人而言,我不敢相信普及基本收入现在不是每个AI爱好者的话题。资本主义框架不会创造一个AI能够让人们工作更少的世界,这是一个悬而未决的问题。Riedl指出,即使人工智能“有潜力改善人类的生活状况,如果正确使用,可以让我们的生活更加便利,但美国资本主义的问题在于我们衡量生产力,所以任何你节省下来的时间都会用来加快工作节奏,因为你的工作要求你付出更多。我们工作中的哪些部分是让我们感到满足的?雇主可以使用人工智能解雇人们,因此有许多决定需要做,关于如何重新分配人们的时间,这不是一个人工智能的问题,而是关于社会如何评价工人的问题。” Bender博士提醒观众,如果你替代了创造力,那么这些系统背后总会有隐藏的劳动。
艺术家Steven Zapata谈到了加州艺术家们组织起来对Stability ai和DeviantArt提起的集体诉讼,伊利诺伊州居民提起的另一项集体诉讼声称Lensa.ai未经他们同意使用人们的生物识别数据,Getty Images也正在起诉Stability AI。Zapata表示:“现在是野蛮西部时期,所以许多这些案件将会勾勒出问题所在。我们需要找出法律和政策将会是什么样子。” Zapata建议采用“选择加入”模式,让人们可以同意使用他们的作品。
的确,对于版权侵权和未经同意或补偿收集人们作品的担忧正在蔓延。“必须有一种道德的方法。如果制造这些工具的人真的相信这些工具是关于民主化的,那么为什么认为这会很容易呢?如果这将是如此重大的革命,那么是的,你需要非常努力才能让这起作用。你不能对此漫不经心,” Zapata补充道。
所有行业都关注人工智能,但最近的一条推文概括了艺术家、自由职业者和知识工作者目前所处的混乱程度:
律师Sarah Andrew是英国非营利组织Avaaz的法律总监,她详细谈到了与未受监管的人工智能使用相关的人权问题。“‘伦理’这个词非常令人担忧。人权已经得到了诉讼,用‘人权’这个词而不是‘伦理’更加清晰明了”[谁的伦理?]。
例如,她详细介绍了目前荷兰引入的人工智能警务系统,用于街头面部识别,导致一些人被错误地识别并被逮捕。“欧盟的规定并不使每个人都受益,但也许它可以开始确定模式。现在有很多伤害正在发生,政策制定者认为这都是在未来发生的事情,但它现在正在发生,我们需要立足于决策制定。我们需要将人权写入法律。”
在聊天中分享的一个有关报告人工智能违规行为的有趣工具:https://incidentdatabase.ai/
活动家Nanjala Nyabola强调了跨部门合作的必要性。“世界上有很多人在使用翻译工具,这是许多语言障碍的一个重要问题。与硅谷的白人男性技术专家相比,我们还必须了解那些没有发言权的人的故事,我们的运动需要由包容性联盟组成。”
艺术家Steven Zapata坚持教育和政治组织的重要性:“我们需要教育代表,并学习如何在灾难发生之前生成政治意愿。现在很少有政治代表真正感兴趣,有些感兴趣的人也不感到舒适,因为他们害怕似乎政府正在妨碍企业,这是毁灭性的。[技术工作者]你需要与你为之构建产品或依赖于其上的人们进行接触。”
律师Sarah Andrew同意需要技术工作者“承担责任,负起责任并认真对待这个问题”。
Nyabola补充说:“许多技术工作者故意忽视他们的工作如何被部署。我们需要人们在技术领域考虑这个问题。我的产品如何被使用?”
我记不起有没有提到环境问题,但在随机鹦鹉论文和其他文件中提出了这个问题——我们需要更多关于此问题的透明度和独立于从人工智能受益的私营公司的研究。建议所有政府、公民社会、企业、媒体等各个领域的人在为时已晚之前深入参与这些问题。
评论(0)