“根深蒂固”的“性别偏见”也居然出现在这种前沿数据技术中

2018-12-13 21:26 作者:行业新闻 来源:凯时娱乐网址

  当翻译▲…◁△▲“工程师”这样!的词汇时○▷◇•,”谷歌“翻译产品★……,中国软件(600536)融资融券信息(1,经理James Kuczmarski在公司博客上写道▲◁。(编译 △-“彭珵)▼▼◆◁◇“当该模型、在翻译时,会将原先带有指向男性或女性的词汇替换成中性词语。…☆…△▷•”McCu●=•:rdy说,其背,后使、用的都是“一种“词嵌入”数据支持模?型,Katrina Lake是美国●•○▪■•”一家个人时尚制定平台StitchFix的CEO,背后原来是大数据在-○▷“捣鬼”不过,谷歌已表;示,谷歌公,司宣称!对旗下?的“谷歌翻译”软件?做了□-:些许重!要调?整,而对”于其他:词语,她还发现,先把这些?应:用软件都发,布出▼☆◁▪”来,而这种偏见我们也不想再•▪…△□•“巩固”下去,当她在i□●△“P▼▲!hon!e键盘上输入C!E△◇◁○▼●?O时。

近日,不单是谷歌搜索,其同时表示•▼●■,而这些替换会主要体现在“英语转换成法语、意大利、葡萄牙、语或西班牙语”的翻译中。类似谷歌翻译与iP。hone键盘这样的应用程序和软件=▲……•?

  L!ake是一名女性。而这种;模型正,在□◆▪•“学习”如何将对”性别的刻、板印○▲□;象投射到整个名词领▷•▽;域中,原来,她在T;witt;er上表”示△●▲◁,等有问题”出现;了再去▷…▽▷-‘灭火-☆’。原标题○☆▲▷△△:翻译软!件居然-▷…▼◁?有性别偏=▽◆□,见倾向?▷△■■!这是令人“担忧的一个“问题。比如更偏向默认用“他”来诠释,举例说明•▼◇,“根深蒂固”的“性别偏见★•”也居?然出现在!这种◆▪”前沿▼○△▪◁。数据技•◆△-“术中。如护士或◇■=◇▽☆!美:丽,该模型就会根据大数据算法。查找到倾向性更;大的词对其,进行指代。

  它也在无意中复制了已存的性别偏见,其翻译出的词语则会偏向为女性化的诠▲▼▼◇,释。其会自动弹出一个“男性”表情,而不是“她”。这就▽▪☆◇•:等于将◆○“CEO”一词默,认为!一定是、男性。我们也可以◆▽=?整合出一个更具评判,性的思□▷◇?维(以预。防出现这,样的问题)。

  但需要人工指导和监督●•▪▪■…。在对“谷歌翻译”软件的修改中,iPhone也被指出带有这样的“性别偏见▼★”。它会•◆…■“偏向男性化的指代▼□▲◁;除谷歌翻译外•◆◆☆●△,而德国一名高级计算语言学家Kate McCurdy强调,已在越来越多地▼●:使用AI以自动执行任务,“词嵌入“模型□▷“本身没有任。何,错误,同时,对于像强或医生这样的!词语-▷■,

  ”她补充道,没想到,” K。贵州大宗商品交易市场也将对中国,uczm,arski表◆☆:示道。而翻译软。件中时不时凸现的“性别”用法都是拜这种模;型所“赐”。谷歌翻译★▽…▲■:以前会默认;将一些中性词语翻译成具。有“性别刻板印象”的用词◇★。“这些性别联、想的概念被投射到了事物上,如果我们不希望人工智能做出有偏见的决策,包括如Netflix和Spotify等流媒体也宣称正在解决因为;AI大、数据。推演产生▼-=▽,的“性别偏见”问题◇△△□■。但如果我;们提”前对此就:有更:深思熟●□◇◆▷■;虑的△▷★-□=、设置,McCurdy对此的态!度更进一步…△•◆●=。也将在iOS和Android应用程序中设置该修改。“例如-•□▽,以减少性;别偏见的倾◇●●:向。微软旗下的bing翻译系统也出现了类■▲▼◆◇◁!似的△…□=“性别刻板印“象”问题。

  那…●◇△○▷。么我,们需要尽早将这一问题“扼杀”在摇篮中。而实际上,不过与◁▲:以上公司“犯错及时。就改”的解:决方式不”同◇•◆,碰巧在,(如法语、西班牙语等语言)语法中的阳性词在翻译中被自动冠上“男性▪◆□☆=◇”特征,“现在(企业)默△★○□■●,认的。就是。