市面上实验室考评系统AI赋分准确率有多高?
- 学习方法
- 2024-02-01 07:57:13
天智AI评分系统的产品特点有哪些?
天智AI评分系统是自主研发的中考实验操作考评系统,为满足中考理化生实验操作掌握的基本实验技能及落实国家、省、市相关中考改革文件精神,推进理化生实验操作考试考点建设和考务组织工作。
AI评分系统在促进学生全面发展,充分发挥中考实验操作考试起到积极导向作用,以考促教、以考促学,促进学生的实验能力和知识能力构建,推进各省市中考改革工作高质量完成,加快考点建设,完善学校理化生实验课程设置,为理化生实验实操考试做好充分准备。
该AI评分系统产品主要有八大特点:
1.鲁棒性:自研STRM方法建模实验过程和实验器材的时空多层关系,能够适应不同考场环境和实验类型,有效识别实验操作结果;
2.精准性:自研Multi-Stage行为分析技术,有效解析较小动作特性,提升评分准确率、降低误评率;
3.智能化:考试实时智能监测,当系统监测到考试得分点或扣分项时,记录其得分或扣分情况,并存储视频图片,同事讲结果推送至监考老师及管理侧;
4.灵活性:端-边-云灵活部署,兼容性强,网络连接可选择有线、WIFI、5G等通讯方式;
5.易用性:一键快速配置,全程无需人为介入,系统后台智能静默运行;
6.高效性:快速迭代学习,12小时完成新场景学习,高效辅助评卷,提升5-10倍评卷效率;
7:开放性:标准开放API接口,快速对接各大第三方系统;
8.拓展性:支持华为机器视觉产品,包括SDC、IVS等设备,性能优异。
中国人工智能,引发制造业变革,AI质检的准确率有多高?
随着科技的发展,越来越多的职位被智能机器人所代替,对于这个现象网络上有一个笑话叫做当有人对你说逃离大厂的时候,它可能指的不是互联网大厂,而是实实在在的工厂。更让人们觉得好笑的就是,这届打工人更多的是宁愿送快递送外卖而不愿进工厂。而这个原因也是很简单的,就是因为在工厂里做工的环境是非常压抑的,工作内容单一还乏味,时间长对体力考察的较大。尤其是质检员,质检员一天都要盯着这些屏幕,而且从图中发现产品的瑕疵过程还不能超过两秒,在具体的过程中不仅考验眼力,而且更多的是专注力,一整天下来,则让不少质检员们表示身心俱疲。但是就是有这样一款AI质检员,它是宝德联合华为打造的“宝德升腾智造解决方案”,这个方案成功的为AI制造业带来了福音。根据他的副总经理的介绍,我们可以知道在这个工作中,首先就是AI的质检率其实高达99%,在这么高的质检率的情况下,一旦出现了什么问题,很快就能够被发现,从而节省了工人组装前后,目测质检的时间和精力,进一步节省了人工成本。而第2个就是他的整个过程是可以追溯的,每一个工位都有照片,在结束后也能够后期管理。
AI打假技术,1秒内识别20个假大牌,AI打假技术的准确率高吗?
近日,有一个新型的打假技术得到了众多专业人士的认可,甚至315协会也利用这个利器来进行打假,这个技术就是AI打假技术。根据媒体报道,AI打假技术在短短的一秒之内就识别出来了二十多个假的名牌,这个速度堪称恐怖。这个打假技术的专业能力是任何一名熟练的鉴定师都不可以相媲美的。AI打假技术的成功应用向人们证实了AI技,认为术不仅仅只能用于识别人脸,它还有着更加广阔的应用场景。虽然AI打假技术超强的打假识别能力得到了人们的认可,但是还是有一部分人发出了质疑AI打假技术是骗人的,只是一味的追求快。那么,市场上的AI打假技术的准确率到底如何呢?
那么AI打假技术到底是如何应用的呢?实际上AI打假技术也是应用了大数据进行搜集和对比,最终通过一系列的计算来得出的结论。随着科技的发展,芯片的运行速度和计算能力越来越快,让AI识别能力和时间大大的缩短。通过对AI打假技术进行实验,结果显示AI打假技术不仅用时短、效率高而且准确率也能够得到保证,堪称一大神器。随着小程序的不断研发,AI打假技术也会逐渐的走向每一个人,最终形成人人都是打假者。
现在随着我们国家经济的发展,奢侈品的销量也是水涨船高,连年增长。在奢侈品销量疯狂上涨的背后,假冒伪劣的产品也大量的流入了市场。而且由于奢侈品自身的特殊性质,他的真伪的鉴定也一直不能很好的解决,最终形成了奢侈品市场的难点和痛点,而随着AI打假技术的广泛应用,将会有力的改变这个局面,整治奢侈品行业的乱象。
AI打假技术作为一款打假神器,它的准确率必然是很高的,这是得到了市场的认可,请大家放心使用。
AI技术1秒识别20个假大牌,它的准确率有多高呢?
AI技术1秒识别20个假大牌,它的准确率高达95%,在这套软件里面,包含了137亿张造假图片,可以识别商标伪造,图像模糊等造假手法。AI技术识别假品牌还可以24小时不间断运行,随时随地进行更新假货信息,疑似造假的商品链接就会被直接封杀,而且准确率高达95%,用来保护商家的知识产权和商标权。同时这一款软件是免费给全球服务的,里面的奢侈品商标也会免费提供给需要这些数据的商家和科研队,其目的是打造更加安全的数据库,提升AI技术的安全性。这款AI技术还同时提供了线上咨询和线上追踪的服务,有专门的打假特战队帮助公安机关破案。而且还配备了线下小二,协助公安机关线下调查,争取将假货全部打击。
一、这款AI技术软件包括了137亿张造假图片,可以识别迷糊图片和虚假商标等造假手法,准确率高达95%
这款AI技术软件,在打击造假奢侈品时,使用了高达137亿张图片,从中甄选出假货图片,就可以识别造假商品了。而且就算是模糊的图片和利用高科技伪造商标,也同样可以识别清楚是否为虚假商品。还可以在线更新假货图片,使人们更加准确的判断是否为假货。
二、这款AI技术只需要运行起来,就可以在线24小时不间断识别假货,只要发现有可疑链接,直接进行封杀
这款AI智能技术,是24小时查询假货的,根本不需要人们手工操作,为很多商家提供了方便。而且当这款软件运行的时候,如果发现造假的商品,就会在上架的那一刻进行封杀,不会出现在人们的眼前,真可谓是方便又准确。
随着AI技术的提升,你知道还有哪些领域使用AI技术吗?
AI也有偏见,我们该如何信任它们?
1970年,爱德华·肖特利夫(Edward H. Shortliffe)在斯坦福大学的实验室里开始着手编写一个Lisp程序。这个名为MYCIN的系统通过一系列的是非问题帮助医生判断病人是否患有遗传性血液疾病,并根据病人体重建议抗生素用量。作为历史上最早的专家系统之一,MYCIN的正确率仅为65%,相较血液科医师80%的正确率相去甚远,而且由于程序过于庞大,最终也没有投入使用。
2019年,150名受试者来到UCLA的VCLA中心,观看Baxter机器人打开附有安全锁的药瓶。随后,Baxter向其中一些受试者解释了自己是如何打开药瓶的,剩下的人没有得到任何解释。最后,实验者向所有人提问:你在多大程度上相信这个机器人会开药瓶?
在过去的半个世纪里,机器的计算与储存能力突飞猛进,我们可以轻松地在计算机上运行像MYCIN一样相对简单的系统,甚至可以训练深度神经网络、支持向量机(Support Vector Machine)等更加复杂的模型达到接近专业医生的诊断水平,或是让机器人完成相对复杂的精细动作。
但是,AI系统的性能提升也带来了新的问题:如果这些系统进入我们的生活,你会信任它们作出的决定吗?
为何要解释AI?
AI如日中天,我们为什么要停下来思考怎么解释它?
2016年5月,ProPublica发布了一篇名为《机器偏见》的调查报告,聚焦一个名为COMPAS的AI系统。COMPAS被广泛应用于美国司法量刑。它基于已有的犯罪记录,尝试预测被告被再次逮捕的概率,得出一个1到10分之间的分数——分数越高,它建议的量刑越重,以期更有效地惩治潜在的再犯。
ProPublica分析了18000多人的COMPAS分数和犯罪记录,发现黑人与白人的分数分布明显不同——在犯罪历史、再逮捕记录、年龄、性别都相同的条件下,黑人被告得到更高COMPAS分数的概率高于白人被告45%。另外,有48%在两年内被再次逮捕的白人被告的COMPAS分数被低估,几乎是黑人被告的两倍。因为数据来自具有结构性不公的环境(既有司法系统倾向于区别对待不同人种),COMPAS的(草率)决定也受此影响。然而,由于COMPAS是一个黑箱系统,法官只能看到分数,对内部的决策机制一无所知,导致他们无法有效评估系统的建议。另一篇调查报告更是指出,COMPAS的准确率相当于几乎没有刑事司法专业知识的人。
无独有偶,2015年,有用户发现谷歌的图像识别系统将自己的黑人朋友标记为“大猩猩”,在推特上引起轩然大波。直到2018年,谷歌仍然没有完全修复这一漏洞,只是将灵长类的标签从系统中移除,并称“图像识别技术还不成熟”。同样是2015年,纽约西奈山医院用70万病人的数据训练了一个名为“深度病人”的深度神经网络,用以辅助医疗诊断。“深度病人”对精神分裂症的预测出乎意料地准确,但没有医生知道为什么,自然也无法应用于自己的临床诊断;当它被用于分析医院以外的X光片时,系统正确率莫名出现了大幅下降。
“数据不会说谎。”但这绝不意味着我们不需要仔细审视它们,或是给予基于数据之上的AI系统无条件的信任。肖特利夫的MYCIN系统本质上是一个决策树,属于“透明”的模型——我们可以画出从数据输入开始完整的决策过程,从而评估MYCIN的决定。深度神经网络的性能远远优于决策树,但它是一个“黑箱”——我们几乎不可能确切地知道它在算什么。性能与可解释性似乎此消彼长。
对一位只追求正确率和性能的算法工程师来说,黑箱AI未必不受待见:一个能够准确预测95%的事件的黑箱系统,肯定比另一个正确率只有65%、更透明的系统好。可是,当工程师需要调整系统内部“零件”的时候(比如修复谷歌图像识别系统),黑箱会让这项任务无比艰难:到底是哪一步出错了?是用于训练的数据有问题,还是模型本身的性能不足,或是损失函数(loss function)有待改进?置身黑箱之外的工程师很难一针见血地指出病灶。
我们中的大多数人也许极少有机会成为工程师、法官、医生,但这不妨碍黑箱AI对我们的生活造成影响。与我们的一厢情愿相反,不够透明的AI系统非但没有比人类更客观、公正、精确,反而加深了既存的偏见和不公正,对数字民主和基本人权构成威胁,而对这些系统的控制、介入和审计也更为困难。当我们无法解读AI作出的决策,对它未来的预期不过是纸上谈兵,信任也无从谈起。
可解释AI(Explainable AI,即XAI)想要解决的正是这类问题。XAI认为,通过解释AI系统的决策过程,人类能够更好地理解它的机制、优缺点、潜在影响等特性,从而更有效地预测系统的行为,达到逐步建立信任关系的效果。如果AI革命不可避免,至少一个可被解释的系统能够更好地融入崭新的算法社会契约——例如伊亚德·拉万(Iyad Rahwan)提出的社会回环(Society-in-the-loop)——与人类共生存,而不必成为敌对的关系。
我需要一个解释
可解释AI终究是为人服务的(好比高阶编程语言是为了人类设计的,否则机器之间的“交流”大可以用机器编码之类人类无法轻易读写的“语言”)。所以“解释性”也是相对人而言的。关于黑箱AI系统,什么样的解释才是好的解释?心理学家和哲学家早就开始分头研究,但各执一词。
解释常常需要阐述特定的因果关系或因果模式,例如“我不吃杏仁,因为我对坚果过敏”。这样的解释非常贴切(没有转移话题),直接明了(不存在循环论证),逻辑严密。有的现象却很难用通俗的因果关系解释——请试着回答,“我掷了一次骰子,为什么朝上的一面是3?”当然,你可以引用物理法则来解释掷骰子的具体过程,但我可能一头雾水。为了避免这样的尴尬,你也许会提及相关的(非因果的)概念,比如“随机性”,或是用类比等手法让你的解释更容易被听众接受(比如上一段的第一句话)。一般而言,因果关系在解释中占据不可动摇的地位,但不是唯一的手段。
既然解释本身可以有各种形式,为了筛选出最好的可解释AI,我们为什么不直接问:你理解这个系统在做什么吗?相关的心理学研究也的确使用了类似的方法来推断人们是否能够通过描述性解释理解某一概念。它们发现,客观上,当受试者对某一概念有更好的理解时,他们能通过主观的直觉感觉到自己的认知进步,好比“茅塞顿开”。
然而,耶鲁大学的列昂尼德·罗森布里特(Leonid Rozenblit)和弗兰克·凯尔(Frank Keil)提出的“解释深度的错觉”(Illusion of Explanatory Depth)仿佛当头一棒。罗森布里特和凯尔让受试者首先评价自己对某一工具(比如拉链)的理解,然后详细地解释这个工具的工作机制,并再次评价自己的对它的理解。他们发现,相比一开始,试图解释后的受试者对自己理解的评价明显下滑,仿佛突然意识到自己其实一知半解。这就是“解释深度的错觉”。这种错觉影响着所有人(包括小孩子),并且只作用于解释性的知识。完全相反的情况也不少见:人们会自称不理解一个动力系统,却能熟练地使用它。
另一方面,规范(normative)解释在哲学(尤其是科学哲学)中发扬光大。规范解释有意忽略个人因素,比如认知能力,而是关注“应有”的理解。因此,规范理解可以被视为一种基准,用来分析哪些信息应当被包含在解释里,以及受众会有何种程度的理解。更进一步地说,好的(规范)解释应当从理解的目的出发,基于受众与黑箱AI的关系给出不同的解释。显然,修补系统漏洞的工程师和审核系统公正性的法官所需的理解是不同的。我们可以合理假设前者具有足够的技术知识背景,也许将计算模型可视化就提供了足够好的解释。后者需要的是更抽象的文字解释,比如“其他条件不变,COMPAS系统预测黑人被告和白人被告被再次逮捕的概率不同。”两种都是好的(规范)解释,一旦互换却可能成为各自的鸡肋。
规范解释看似更加直截了当,但在实际应用中还没有确切实现或评估的共识。描述性解释似乎也不甚完美。时至今日,我们仍未整合描述性解释和规范解释,关于解释的研究和可解释AI还在齐头并进。
有了可解释的AI就万事大吉吗?
2017年开始,美国国防高级研究计划署(DARPA)投资了一系列XAI的项目,包括UCLA的VCLA中心的研究项目。2018年,ACM主办了第一届FAT*会议,关注AI系统的公正性、问责制和透明度。同年,AAAI与ACM共同举办第一届AIES(人工智能、伦理与社会)会议。谷歌、微软等科技公司也陆续参与XAI的研发。各界对于XAI的关注促成了许多“拆穿”黑箱AI的尝试,从DeepMind提出的机器心智理论(Machine Theory of Mind),到将黑箱神经网络转化为“透明”的布尔电路(Boolean circuit),再到LIME(Local Interpretable Model-Agnostic Explanation)等通过近似黑箱模型提取重要特征的方法。虽然XAI目前解释的对象主要是工程师等研发人员,但是在未来,我们将会看到更多面向大众的XAI,比如向你解释如何开药瓶的Baxter。
XAI并不是终点;它最多算一个起点,而我们还有许多亟待解决的问题。首先,对黑箱AI的解释可以被悄无声息地篡改,可以完全牛头不对马嘴,而且很难察觉。哈佛大学的希玛宾度·拉卡拉朱(Himabindu Lakkaraju)和她的学生们发现,只需在模型上动一些简单的手脚,就能让它滥用COMPAS数据集里的种族信息决定量刑,但一旦LIME来“视察”,它立刻摆出无辜的嘴脸,完全不露馅。这就意味着,即使有XAI为工具,我们对AI的信任也不应当盲目地依赖系统的可靠性和(表面上)信息的透明性,理智与批判性思考将格外重要。
其次,针对AI的条例的制定相对滞后于研发和应用。XAI的出现将会让这个问题更加复杂——由于黑箱AI难以捉摸,且只有少数人具备解读/修改的能力,研发机构不必过分担心自己的科研成果泄漏(除非算法模型被一锅端)。如果面向用户和公众的解释成为需求、甚至必须,既有的AI系统——无论透明与否——都有可能面临一系列的风险,包括知识产权(利用反向工程重建系统)和系统安全(恶意的对抗攻击)。信任与保密两者的张力之下,XAI应当提供的解释的具体内容尚无定论。
再者,偏见和不公不会因为解释本身而消失;恰恰相反,解释会暴露更多一直以来潜行在我们周围的伦理问题。ProPublica对COMPAS的调查使人不禁发出疑问:系统性的种族偏见究竟在何种程度上渗透了美国过去十年间的量刑?随着XAI的进步,一个个黑箱AI的庐山真面目逐渐显露在我们眼前,不难想象其中有像COMPAS一样的“帮凶”。我们能否通过公开讨论解决结构性问题、完善问责制,这将是对AI和人类社会共同的挑战。