你的位置: 首页 > 壹拾贰网 > > 大白话聊透人工智能

大白话聊透人工智能人工智能的风险管控与伦理规范

现在“人工智能+”早就不是啥新鲜词了不管是手机里的智能推荐、商场里的人脸识别还是工厂里的智能机器人到处都能看到它的影子。

但就像咱们用新家电得先搞懂安全按钮一样“人工智能+”用得越广背后藏着的风险和伦理问题就越不能忽视。

接下来咱们就用大白话把这些事儿拆解开说清楚让大家一看就明白。

一、技术风险:AI也会“掉链子”这三种问题最常见 咱们总觉得AI特别厉害能算复杂数据、能写文案还能画画但实际上它也会“犯迷糊”“带偏见”甚至关键时刻“掉链子”。

这部分说的技术风险就是AI在技术层面容易出的岔子其中最典型的就是算法偏见、模型幻觉和系统可靠性问题。

1.1 算法偏见:AI也会“看人下菜碟”不是它故意的是“学歪了” 先说说“算法偏见”听着挺专业其实就是AI在做判断的时候会不自觉地偏向某一类人或者对某一类人不友好。

比如咱们平时用的招聘APP有些公司会用AI筛选简历如果一开始给AI“喂”的简历里大部分都是男性的优秀简历AI就会误以为“男性更符合岗位要求”之后再看到女性简历可能就会不自觉地打低分——这就是典型的算法偏见。

为啥会这样?不是AI有“性别歧视”而是它学习的“素材”有问题。

AI就像个小学生老师教啥它学啥如果老师给的教材里本身就有偏向性那学生学出来肯定也带偏。

再比如贷款APP有些AI评估用户信用时会参考用户的居住地如果某个区域之前有过较多逾期记录AI可能就会直接给这个区域的用户打低信用分哪怕有些用户本身信用特别好也会被“连累”。

这种偏见带来的麻烦可不小。

找工作的女性可能因为AI偏见错失机会信用好的人可能因为AI偏见贷不到款甚至在司法领域如果用AI辅助判断案件偏见还可能影响判决公平性。

所以算法偏见不是小事得提前发现、提前改。

1.2 模型幻觉:AI会“瞎编乱造”还说得有模有样 再说说“模型幻觉”这个更有意思简单说就是AI会“一本正经地胡说八道”。

比如你问AI“某本不存在的书的作者是谁”它不会说“我不知道”反而会编一个名字还会瞎编这本书的出版时间、主要内容甚至引用里面的“名言”让你误以为真有这本书。

为啥会出现幻觉?因为AI的核心是“预测下一个字/词该放啥”它不关心内容是不是真的。

比如你让AI写一篇关于“古代某座虚构城市的历史”AI会把它学过的所有“古代城市”“历史事件”的信息拼在一起凑出一篇逻辑通顺但完全虚构的内容。

就像咱们做梦的时候会把现实里的片段拼在一起形成一个假的场景AI的幻觉差不多就是这个意思。

这种幻觉的危害也挺大。

如果医生用AI查医学资料AI编一个假的治疗方案可能会耽误病人;如果学生用AI写论文AI编一些假的引用文献论文就会出大问题。

所以现在用AI查信息尤其是重要信息一定要多核对不能全信。

1.3 系统可靠性:AI也会“死机”“出错”关键时刻靠不住 最后是“系统可靠性”问题简单说就是AI系统可能会突然出故障或者在复杂场景下出错。

比如自动驾驶汽车平时在空旷的马路上跑得挺好但遇到暴雨、大雾天气或者路上突然出现一个塑料袋、一只小动物AI可能就会判断失误要么突然刹车要么没及时避让容易引发事故。

再比如银行的AI转账系统如果突然遇到网络波动或者系统里的某个程序出了bug可能会出现“转账成功但对方没收到”“重复转账”等问题给用户带来损失。

还有咱们用的智能客服平时能解答一些简单问题但遇到复杂的投诉、咨询比如“账户被盗了该怎么办”“订单丢了怎么找回”AI可能就会“答非所问”或者直接把问题推给人工要是人工客服又忙不过来用户就会特别着急。

为啥AI系统会不可靠?一方面是技术本身的问题比如AI对复杂环境的适应能力还不够强遇到没见过的场景就容易“懵”;另一方面是人为因素比如程序员在写代码的时候出了错或者系统维护不到位没有及时更新、修复漏洞。

所以不管是用AI开车还是用AI处理金融业务都得留好“后手”比如自动驾驶得有人类驾驶员随时接管AI转账得有人工审核环节不能完全依赖AI。

二、伦理挑战:AI不能只讲“技术”还得讲“规矩” 除了技术层面的风险“人工智能+”还会遇到一些伦理问题——简单说就是“AI该怎么做才对”“哪些事AI不能做”。

比如AI能不能随便收集人的人脸信息?AI推荐内容的时候能不能只推用户喜欢的让用户看不到其他信息?这些问题都没有绝对的答案但需要咱们一起商量出“规矩”不然就容易出乱子。

这部分主要说三个核心伦理挑战:公平性、透明度和社会责任。

这章没有结束请点击下一页继续阅读!。

本文地址大白话聊透人工智能人工智能的风险管控与伦理规范来源 http://www.v1zwxs.com

编辑推荐

热门小说