门店展示
【利来app下载[官网]】谷歌Arts&Culture遭指责种族偏见,算法成罪魁祸首?
只管功效强大,但你有可能没想到,宣布一年后,现在因为自拍影戏功效,这款应用于在上周沦为 iOS 和 Android 免费应用于iTunes最高级名。详细来说,用户将自己的自照相上载应用于,应用于自动找到与用户相似的画作,不过凭据谷歌一位讲话人称之为,该功效现在只在美国部门地域上线,还没计划在其他地域上线。
来自高晓松的微博冷笑话的自拍功效更有了众多的用户,但也袒露出了问题。一位来自 Digg News 的编辑 Benjamin Goggin 注意到,许多有色人种找到,与他们自拍影戏相匹配的艺术作品较量受限。
有的人找到,与他们给定的作品具有相同的种族主义,如有色人种经常是仆从、仆人等,而女性则是色情小说中的角色。谷歌讲话人回应,“这种局限性是由其平台上涵括的作品数量而造成。
历史作品往往无法体现世界的多样性,我们于是以希望将越发多元化的艺术作品引入平台上。”与此同时,这项自拍影戏功效所引发的种族问题获得了各大媒体的报导,如 Bustle、BuzzFeed、Marketwatch 等等。
从不怪异,这也引发了许多隐私问题。在上载自拍钱,应用于不会泛起出一条信息,谷歌告诉他用户,它会用于自拍影戏数据作为他用,只用来寻找给定的艺术品,并且会储存照片。
据理解,Google ArtCulture 在 2011 年还被沦为 Google Art Project(谷歌艺术项目),其时一发售之后被谴责是欧洲中心主义。原本的 17 家互助博物馆多坐落于华盛顿特区、纽约,或是西欧,人们谴责博物馆笼罩面积的局限太小。
于是,谷歌很快不断扩大博物馆的局限,正如前文提及的,如今早已涵括了 70 个中流砥柱和地域的1500 家文化机构。然而,从 Google ArtCulture 珍藏的地图来看,美国和欧洲依然占有主导。
谷歌正在希望泛起出多样性的艺术家、艺术作品和风格,但如果不瓦解欧洲中心主义,数世纪的人种种族主义之后会消失。2015 年,梅隆基金(Mellon Foundation)在美术博物馆馆长协会和美国博物馆同盟的资助下,宣布了首份针对美国博物馆人种多样性的视察。
视察结果显示,博物馆 84% 的治理职位皆由白人兼任,博物馆初级职员中少数族裔也较较少,梅隆基金回应,这解释如果博物馆期望未来向导者人种富足多样性,现在必须鼎力地培育年轻人才。另外,艺术院校的女生少于男生,但今世艺术展依然是男性占有主导。
如果是上述是历史遗留的问题,那么现在算法不仅没减轻问题,还将问题好转了。因为算法无法使用户免遭种族的种族主义,反而吸取和自学,缩放并且流传种族主义,同时打造出技术不不受人类种族主义影响的错觉。
面部辨识算法早已证明晰其能导致的损害,例如,两名黑人用户找到他们的照片被贴上了“大猩猩”的标签。谷歌早已为此致歉,屏蔽了法式中的“大猩猩”、“黑猩猩”、“猴子”的图片分类。
算法的准确度同基准数据集完全一致,而这些数据集则体现了数据收集者的种族主义,不管是无意还是有意。来自 MIT 的结业生 Joy Buolamwini 正在研究该问题,他此前曾建设了算法正义同盟(Algorithmic Justice League)避免种族主义被编码植入软件中,而这将对种族定性和公民权利带给极大的影响。
去年,在 TED 演说中,黑人 Buolamwini 形貌了当她拿着白人面具时,一些具有机械视觉的机械人如何较慢地辨识她的履历。人脸识别算法中的种族主义与彩色影戏的生长遥相呼应。
20 世纪 50 年月,柯达向照片实验室发送到女模特卡片,以协助他们校准肤色。所有的模特儿都被称作雪莉,此后几十年所有的模特儿都是白色人种。
这意味著,黑人形象经常被曲解,或是没能被确实叙述。如今,通过 Google ArtCulture,谷歌正在挑战种族种族主义和短视思维,因为基于谷歌技术的产物可打破地理、语言和文化的局限,而这是其他媒体无法做的。
应用于中的自拍功效某种水平是可笑的仿效,但是要认识到其局限性,这也意味著面临艺术历史中,艺术作品搜集中不存在的种族主义,并且告诉他用户这样事实的不存在。原创文章,予以许可禁令刊登。
下文闻刊登须知。_利来app下载[官网]。
本文来源:利来app下载[官网]-www.cafe-arve.com
利来app下载[官网]