警告:现有性别偏见如何影响人工智能程序的编制?
生成式人工智能领域的专家们对现存的性别偏见感到忧虑,认为如果政府不采取适当的政策,女性和儿童将面临潜在的危险。
生成式人工智能(如ChatGPT)是一种能够根据输入生成文本、图像或其他媒体的系统。
人工智能与元宇宙的专家卡特里奥娜·华莱士博士在本周的福布斯商业女性峰会上表示,随着生成式人工智能的普及,她最担心的是科技巨头缺乏责任感。
她指出:“去年11月,生成式人工智能的推出改变了我们的世界。如今,越来越多的组织开始使用这项非凡的技术。”
“在人工智能领域,挑战依然存在,10个工作岗位中有9个是男性,只有1个是女性。”
由于这种性别差异,华莱士担心数字世界将与当前的物理世界保持一致,继续存在性别、种族和性别方面的不平衡。
她表示:“我们绝对有可能将社会对女性和少数族裔的偏见硬编码到支配我们世界的机器中。”
她还提到:“人工智能几乎没有监管,因为这项技术远远超前于政府和政策制定者。”
华莱士强调了政府政策的必要性,以防止这种情况在人工现实中发生。
她指出:“女性、儿童和少数民族仍然面临人工智能带来的重大风险。”
华莱士警告说,随着越来越多的程序(如ChatGPT和苹果即将推出的增强现实程序等)进入市场,科技公司并未对人工现实中的道德问题给予足够重视。
“科技巨头正在主导整个世界,”她说。
“在我看来,没有一家科技巨头表明他们具备道德和责任感,因为这与他们的盈利商业模式相悖。”
机器行为恶劣的作者、人工智能专家托比·沃尔什表示,将社会偏见植入技术是一个深层次的根本问题。
“绝大多数人工智能是基于机器学习和数据的,”他在接受9news.com.au采访时表示。
“这些数据是历史性的,反映了过去的社会状况,其中包含了许多偏见。”
他警告说,如果科技公司不加以注意,这些偏见将会被永久化。
沃尔什补充道,这些人工技术中不仅存在性别偏见,残疾人获取技术的机会也面临风险。
“除非你投入时间、精力和金钱,否则这些工具将无法为那部分人群所用,”他说。
那么,如何解决这个伦理问题呢?
沃尔什表示,这不仅仅是政府的责任,尽管已有一些关于性别歧视的规定,更重要的是科技公司需要有多元化的团队参与项目开发。
他说,还需要有道德团队来监督潜在的偏见,帮助程序员意识到自身的偏见,并在技术中识别这些偏见。
“问题在于系统可能会继续反映人类中的偏见,”他说。
他指出,科技公司应考虑投入时间和资源来规划系统,以确保所有少数群体都能使用,这将有利于长远的经济利益。
“从长远来看,企业以负责任的方式推出人工智能,消费者会将其视为竞争优势,”他说。
沃尔什补充道,科技巨头也需要对人工智能的进展保持透明,因为现在已经没有太多“公开的空间”来抵制系统中的硬编码偏见。
在这里注册,接收我们的每日通讯和突发新闻提醒,直接发送到您的收件箱。
还没有评论,来说两句吧...