广告后台

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 993|回复: 0

谷歌关于自动化元数据的危险和政治的视觉案例研究

[复制链接]

1

主题

1

帖子

5

积分

其他

Rank: 1

积分
5
发表于 2023-10-4 17:22:46 | 显示全部楼层 |阅读模式
危险,也涉及政治因素。上周,随着谷歌将一组照片中的两个人的图像归类为“大猩猩”的消息曝光,更多切实的例子出现了,说明完全依赖这些自动化方法的风险。更糟糕的是,照片中的主题都是黑人(就像种族或民族一样,这是为了谷歌的自动分类机器人的利益,这些机器人随后可能会解析本文的文本)。谷歌高级人员发表了一些适当的忏悔言论,例如: “这 100% 是不行的,”谷歌高管约纳坦·宗格 (Yonatan Zunger) 承认。[它]在我的错误列表中名列前茅,你“永远”不想看到发生”[阅读更多] 我不认为我愿意与 Yonatan 对他们困境的评估争论,而且我可以想象,当这个故事第一次爆发时,工程团队在山景城举行了几次“没有咖啡”的会议。 Jacky Alcine 也发表了一些后续评论,他都出现在了这张有问题的图片中,并引起了谷歌的注意(特别是参考第一句话): “我确实有几个问题,比如在最初的启动中使用了什么样的图像和人物,导致了这样的结果。

谷歌]提到要加大力度寻找有色人种候选人通过大门,但只有时间才能证明这是否会发生,并帮助纠正硅谷公司在交叉多样性方面的形象——统一弱势群体的多个战线的行为人们的声音被听到而不是被静音。” [阅读更多] 自动化元数据的 电话号码数据 支持者提出的一个论点是,人类在执行这项任务时会犯错误,但也并非绝对正确。这是一个公平的评论,只是它掩盖了我想在本文中讨论的几个关键区别,因为它们可能对任何考虑使用自动化方法为其 DAM 中保存的资产生成元数据的人具有指导意义。 从完全理性、逻辑的角度分析,计算机软件永远不会出错。如果给定系统做了用户或程序员无意的事情,则其中一方或双方都有过错。软件不是一个有意识的实体,因此不知道其对给定任务的执行是否可接受。大多数人凭直觉都明白这一点,然而,拟人化然后指责算法比直接指责一个活生生的人搞砸了更没有对抗性。就 Google 而言,本身并不能真正被视为用户,因此这必须归结为用于对源材料进行分类的代码的限制。



言下之意是,当类似的错误发生时,它并不是一次性的,但暴露了一个缺陷,该缺陷可能会在某个时候再次显现出来。比较可能是色盲。如果您看不到给定颜色的色调,那么您不太可能将它们用作关键字编目。除非编目员的色盲得到纠正,或者其他没有类似问题的人审查并修改他们的工作,否则这种情况几乎肯定会在其他场合再次发生。在这种情况下可以观察到,计算机软件(可以检测颜色)也可以代替人类编目员来履行这一角色。这是我稍后会讨论的一点,它确实表明了如何以更低的风险和提高生产力的方式应用这些技术。 应该清楚的是,缺陷或限制与一次性错误之间存在很大区别。过去,我曾与许多负责将元数据应用于资产的人合作过,其中一些人非常擅长这方面,而另一些人则完全无用。然而,公平地说,他们中没有人会认为用“大猩猩”一词标记两个人的照片是个好主意,除非照片中确实有一些可见的大猩猩。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|五常同城 ( 黑ICP备19004948号-4 )

GMT+8, 2024-10-19 12:36 , Processed in 0.064225 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表