跳到内容 跳到导航

Research & Ideas

站内搜索

艾玛Brunskill:功放式教育与AI

通过新的数据和分析关于人们如何学习底气,电脑的梦想是教人进入一个新的时代,这远远超出了阅读,写作和算术。

Children using technology to learn

赌注是很高的:更好的教育,关键是要解决大社会挑战,如扶贫。 | stocksy /maahoo工作室

该计算机程序旨趣帮助人类学会几乎只要有过计算机程序已经出现,但他们对成功的记录具有乏善可陈去过。

艾玛brunskill,人工智能和机器学习方面的专家,认为低于恒星纪录即将改变,并一直致力于她的职业生涯寻找新的和更好的方法来教计算机教人类。她创建创新研究“强化学习”在哪些计算机通过学习经验,教人以获得更好的算法。在这个过程中,算法导致人们做出这从长远来看,会产生更好的效果更好,更明智的决策。

Brunskill到教室,这是没有的事,而是一种努力当赌注是很高的。她说,更好的教育是关键,大社会挑战,如减轻贫困。她认为,更好的新员工培训 - 或旧的再培训的 - 可以产生更好的高薪工作为更多的人。更重要的是,她把她的注意力转移到其他领域,即医疗保健,更好的决策,可以在哪里生活或死亡implicaci上es。

我们的主持人 拉斯·奥尔特曼 和博狗体育官网的计算机科学家艾玛Brunskill电脑辅助学习和决策的新时代的深入探讨。你可以听 一切的未来 上 天狼星XM洞察通道121iTunes的谷歌比赛的SoundCloudSpotify的订书机 或通过 博狗体育官网工程杂志.

抄本

拉斯·奥尔特曼: 今天 一切的未来, 未来的强化学习。所以,我们人类是相当有兴趣学习。我们在学习很不错。如果你问别人为什么他们享受自己的工作或爱好他们,这是很常见的为他们这样说,“我喜欢这个活动,因为我不断学习新的和有趣的事情。”学习本身就是回报。

现在,随着人工智能的兴起,AI,我们的电脑在学习也越来越好。但它并没有自然而然地几乎一样的电脑,因为它确实给我们。所以计算机科学家们正在非常努力让计算机学习如何做任务。识别脸部,例如,需要庞大的数据令人难以置信的量和突破在图像理解,真的只是发生的时候是可利用的图像上千万,教计算机关于人脸,小猫,和消防车。

现在,我已经15岁的孙子和一个15个月大,我有15个月大的孙子。而在过去的15个月,我从睡眠和饮食,并没有多少人,行走,交互与世界同步,几乎说话的包不见了,他绝对是一个学习机器。我已经学会了这一切在15个月是一个人。我了解到,吸尘器看起来良性当他们关闭的,但可怕的。当他们打开。我了解到,有一些事情,不希望妈妈来摸他,爸爸。我已经学会了,有一些食物可以是好的,但它并不总是好的。我们可以让计算机在经验学习这样的,所以他们可以开发能力帮助人类住这的生活更加美好。

有学习人工智能的许多领域,但他们中的一个被称为强化学习。从经验中学习,以做出正确的决定。我猜这就是所谓的强化学习因为有一定的奖励通常情况下,加固,当你做出一个好的决定和一些惩罚,一些负面的,当你不知道。这是我们所有种类的了解含蓄。所以,试图通过寻求积极的补强,让自己变得更好。

博士。艾玛Brunskill在斯塔福德大学的计算机科学教授,并在强化学习经验她的工作重点时特别昂贵的或危险的。所以你需要快速学习有或后果可能是坏的。这种情况在医疗,机器人,教育是丰富的。艾玛,这似乎是学习一个非常直观的方式。但什么是便于人类可能不适合电脑容易。我想知道什么是强化学习的AI系统所面临的挑战,并且我们有进展吗?

艾玛Brunskill: 那么首先,我很高兴能来到这里,非常感谢你的邀请。我认为,我们在人工智能通常当我们开始做11个进步已经看到了令人惊奇的事情之一,我们意识到有些东西比我们也许会一直想象得容易。近日,强化学习了,被用来做这样的事情能够代理商有电脑玩视频游戏。对于你们中的一些人可能是熟悉的老Atari游戏公司我们现在有强化学习系统,这些类型的AI算法,也可以玩游戏,以及这些人也是如此。在即使它可能采取一个十几岁了几个小时来学习如何玩游戏这从某种角度来说,我们有现在这样做很好的算法。我认为我们有一个挑战,就是在这种情况下,这些系统通过试运行错误,和学习演奏过百万的游戏,这些数以百万计的游戏。所以这是可能的视频游戏,因为这只是需要计算。你只需要很多很多的电脑,然后你可以拥有所有这些,是玩游戏,这些最终,你将学习如何取胜。您可以排序的学习,以优化得分。

拉斯·奥尔特曼: 我可能会想,甚至比去他们的性能水平所需的人类专家更多的经验。

艾玛Brunskill: 级以上的订单。

拉斯·奥尔特曼: 好的。

艾玛Brunskill: 所以有一些可爱的工作相比之下人们如何快速学会相较于计算机。人们都在学习,学习对人民速度这些游戏的方式更快。和经验,他们需要的量是远远少。当然,我们的其他经验巨额我们可以给光秃秃的。这些计算机而从头开始学习。但它仍然是一个情况下的经验的多少,他们需要远远超过任何人。

当我们思考这些算法使用其他类型的案件,有些情况下,我真正关心的准备,是之类的东西自适应个性化教育。我们没有,人无限多培养在这些系统上。和它很重要,因为如果我的系统需要100亿人学习如何最好地教人分,这是一个大问题。这里是如果我能学上几句100名学生这会好得多。

拉斯·奥尔特曼: 是。所以如何,只是为了帮助我们理解,我15个月孙子理。当由于口感好,味臭,疼痛,不痛的成功和失败。我们如何编码的奖励和处罚计算程序,使他们能够得到的当他们做得很好感,当他们做得还不够好?

艾玛Brunskill: 我认为这是核心挑战之一,现在。下棋喜欢的东西,喜欢的游戏“走出去”,或在Atari游戏公司,像有视频游戏是一个得分和代理接收得分。让他们知道当吃豆人吃饼干,那它然后获取分数的增加。所以它告诉的是什么奖励功能。我认为在实际系统中是关键的挑战之一,奖励也就是应有的功能是什么呢?所以我的工作对教育系统有很多,有时可见奖励制度可能是测试中的表现。但实际上这是什么,我们关心的代理。

我们关心的事情就像被采用的高中毕业率或人。这些都只是真的很难去衡量,他们需要很长的时间来观察。所以我们使用我们称之为通常情况下,“代理的奖励,”来的东西都更容易衡量的,我们希望与长期相关成果,我们所关心的。

拉斯·奥尔特曼: 现在我做不想让您的工作,以教育,因为它听起来很吸引人,你已经提到这个问题,但在此之前只是设置一些背景。我知道你在乎准备其他的事情,是学习理论。证明的东西和卫生组织关于什么是可能的,什么是不可能的。我在一些论文已经看了,并且他们非常技术上,我会深深的说。所以我们不能去到ESTA讨论的细节。但我想,如果你可以给我们的味道,我们有什么可以学习思考学习的理论,什么是可能的,什么是不可能的?以及您的真实世界运筹学等东西教育或医疗保健那实验?

艾玛Brunskill: 所以很多理论工作的我做的是真正的被挑战的启发吃掉了。当我想到这些教育系统。这系统我们要学习快。所以我和我的集团已在本来很有兴趣,这是什么意思,要刻苦学习,以做出正确的决定。可能是为什么更难一些问题,所以我们需要很多魔法门数据较多,要尽量弄清楚什么是正确的决定在那里。并且,我认为的事情之一是大部分是可爱的,我们发现这种乐观情绪在某些情况下可证明是最佳的。

乐观在这种情况下,让我们想象一下,你“去餐厅,并有一对夫妇不同的菜肴。您尝试之一,它不是那么好。往往我们很多人从来没有可以尝试一个再次,我们会始终坚持一个。这就是:建议乐观,让我们说厨师刚刚有了一个糟糕的一天,和卫生组织这第一道菜是惊人的。这表明,乐观的事情,你应该尝试多次,但随着时间的推移因为东西真的要么像越好,如果你的乐观,然后,它会真的是好,否则你会学到一些东西。原来,这并不悲观具有相同的属性。可能永远不会再次尝试,第一道菜,你可能从未意识到它的好。

拉斯·奥尔特曼: 这是非常有趣的。所以你说,即使那种,我再次使用恐吓的报价,但是,即使是算法嗯,我想我知道什么是要在这里发生,但也许我应该在一个更多的时间确保蘸着一种化妆的所谓态度或者几次。

艾玛Brunskill: 是。

拉斯·奥尔特曼: 对,哦,我不喜欢这样,我快要进入另一个区域。这样的策略,甚至可以影响在哪些真实的东西,有用的东西都学率。

艾玛Brunskill: 并不仅仅是准确率,但也可能是了解到,它甚至从来没有最终正确的事情。也许这样的第一道菜是真的,巧克力片糕这是真正伟大的。厨师刚刚有了一个休息日。随着你想成为乐观看好与您的不确定性好的事情怎么样了。欢快如果事情是更好的,不断尝试他们。我们可以证明在某些情况下,这卫生组织,可证明学到东西的最快方式。

拉斯·奥尔特曼: 这是一切的未来。我是拉斯·奥尔特曼。我跟艾玛Brunskill讲话。我们正在谈论的学习证明的东西。我认为这是您的意见刚才说是隐含的最重要的事情,你可以把这些卫生组织这似乎是学习任务涉及到那些为模糊集概念的话。然后你就可以卫生组织做数学水平证明,这也是我想这是非常有趣的事业也不会得到,如果你能证明的东西是不可能的例子,你会不会非常努力地做一些事情,是不可能的,或者你'会说,“我知道这是不可能的,所以我只是要能够得到近似的结果。”所以我猜想它是什么你甚至愿意去,并尝试提出好的,善良的视锥细胞和界限。

艾玛Brunskill: 这是正确的。我认为这也是正确的,现在,如果我们想是不是我的博士研究生等精彩博士生的人,才能够使用这些算法。我们需要做什么我们许多人在AI的民主化acerca方面谈。这意味着我们希望这些系统是由人的强大和使用在许多领域中。而这就需要他们有良好的强性能。我们可以在软件中看到这一点,所以,人们通常我们验证软件知道,在任何平面上,如果您使用自动驾驶仪的飞机会不会崩溃。同样,如果我们想要的东西像增强学习成为现实世界中足够强大,我认为我们需要这些类型的保证。

拉斯·奥尔特曼: 因为是的话,我想重复一下你的说法,当我们从一个域转移的算法到另一个,从打“走出去”,帮助医生做的手术。我们想知道,那里面有关于它的性能有一定保证,我们没有重建或者,如果他们是忧存在或不存在。

艾玛Brunskill: 究竟。

拉斯·奥尔特曼: 所以让我们去教育工作。动机是什么 - 所以我在你的使用和您的关注教育非常感兴趣。因为作为一个孩子世纪60年代和70年代我是绝对可怕暴露于计算机系统,试图帮助那名我学习,我敢肯定,我已经有在生活中成功被忽略,因为我没有这些系统和“T使用它们。但我还是很幸运地在一个非常好的学校,对学习非常,其他选项。告诉我有关的社会需要从教育软件和系统的AI帮助。然后也许一点点关于你如何接近它。和你所看到的是巨大的机会呢?

艾玛Brunskill: 当然可以。所以我的意思是,为什么我感兴趣的是教育的原因之一,我认为这是最大的工具,我们有扶贫之一。我认为这是我们所见过会导致人们在他们的生活真是太神奇了长期反复的长期利益的事情之一。我现在认为,它是越来越重要卫生组织与自动化人工智能,我们就要有技巧的方式来重新技能人民和排序了技能的一段时间。所以我们要需要终身教育。

拉斯·奥尔特曼: 例如,在由于自动化作业的转变就是你看到的。

艾玛Brunskill: 究竟。

拉斯·奥尔特曼: 好的。

艾玛Brunskill: 是啊所以随着时间的推移,我认为我们从排序k的通过是要通过幼儿园到75 12。

拉斯·奥尔特曼: 但我认为的巨大挑战之一,现在,是什么,是一个震惊,我当我第一次知道了。这是有世界上那些人不“吨有机会获得良好的教育的许多部分。而这只是最近在一直比较过去的10,20,30年来,每个人都有那种小学教育。我认为,因为在其他冲突问题,有很多时候人们不到哪里去获得优质教育。

艾玛Brunskill: 是的是的。

拉斯·奥尔特曼: 因此那些身在何处,我认为该软件可令人惊讶的地方。软件可以无限复制的,每个人都可以使用它。如果我们开始得到的工具,是有效的,我们可以传播,让人们的更多的学习。

艾玛Brunskill: 现在你的目标,所以这是非常合情合理的。鉴于这种情况,你有针对性的已经成熟的机会特别是,对于已经成熟的大型教育机会的领域。我不知道,如果你想用学习的单词自动化或传播。那么什么是主题,世界需要能够学习这些AI系统中也许能够帮助?

艾玛Brunskill: 好了,我觉得有很多不同的人,而我认为这是非常有趣的,看看如何在教育和排序数据的科学,教育数据科学界的人都在思考不只是那种典型的硬技能,如学习数学,也不过软技能,如砂粒,或激励,或持久性。我可以举一个具体的例子,有一两件事,我们在分数看着正在学习,很多与分数的人的斗争。

Some people might be familiar with “A&W” it’s a fast food chain. In the 1980’s, they were gonna launch the third pounder. It was supposed to be a competition with a quarter pounder. And so they did taste tests, the beefs tasted great, they thought this was gonna be awesome. It was the same price as a quarter pounder. And they launched it, and it flopped. And it was because everybody thought that a third pound was less than a quarter pound. And I think that illustrates that a lot of us d上’t —

拉斯·奥尔特曼: 哇。

艾玛Brunskill: 分数是很难的。分数是棘手。它真正的,如果我们有implicaci上es不明白这些事情。所以很多我自己work've的想过准备,学习分数。

拉斯·奥尔特曼: 好的。

艾玛Brunskill: 和我们合作,以便在一个很卓然波波维奇,在华盛顿大学。莫非我们想过,我们怎么样创造一个教育游戏,它优化,以帮助人们持续更长的时间。让人们了解更多信息。这是一个和第一地方我们,用强化学习来扩增的。

拉斯·奥尔特曼: 那声音如此之大。这是一切的未来。我是罗素奥特曼。我所说随着博士。艾玛Brunskill关于关于学习分数。什么是关键见识一下让人们坚持自己的分数教训,如果这听起来像我在你说的话让我,他们坚持自己的分数课长一点,而且他们学到一点点。是它的背轻拍?以及如何给电脑上回拍的?

艾玛Brunskill: 良好的事情之一是引入了有一个如何做,我们需要信息关于做出是过去的决策及其结果,并找出我们在今后应该做的ESTA等核心问题。经常有我们称这种反事实的,或者什么,如果推理。如果不是听这个播客,你就去叫了咖啡。如何更好地你的生活会是?但是你不能知道对不对。你不能看到未来的替代。但有统计的方法来尝试估计。所以我们使用其中的一些在这种情况下采取的旧数据,来自各地的10000名学生,找出更好的途径。更好的适应性途径的学生。和伟大的事情是,我们可以通过更适应学习使用这些统计方法来估计,我们可以提高30%的持久化类型的机器。然后我们跑到研究与其他2000名新学生,发现的确,我们提高30%的持久性。

这是显著的原因是两件事情,一个是机器学习,可以真正帮助,这有极大的情况下,我们在哪里可以优化,整理专家的过去一样的性能相比。然后其他的,我们可以预测ESTA之前,我们部署它。我们排序预测未来的。我们说,“你部署ESTA系统之前,我可以告诉你如何更好地它会是。”

拉斯·奥尔特曼: 所以这是有趣的。所以,如果你有以前的学生足够的ESTA的经历,你不只是被动地看什么样的轨迹通过软件或者他们通过问题是,但你卫生组织推断,你能修剪在某种程度上他们的路径。也许他们做了一些错误的开始,它听起来就像你能够认识到这些错误的开始,并说,“如果我们要避免这条道路,我们也许能够让他们到他们的目标快一点点。”我的意思是一种公平的方式?

艾玛Brunskill: 是的,我只想说,让我们在那里这里做的是决定什么活动给学生每个人完成他们之后。这是一个系列排序视频游戏这些活动的,问题是,“你给什么样的顺序他们的学生,在某种程度上这是适应?”根据他们怎么做的,最大限度的持久性。而我们发现,有那种由不同民族共同拼接,也许你做活动一两,我也一个个活动,我们可以计算出这是为那些未来的学生更好。

拉斯·奥尔特曼: 是。然后怎么同学们应对这些系统?他们必须意识到进取的,因此必须有一定的,再次内部奖励制度。有什么样的,是该系统还以某种方式回报他们,不是收购的技能等?

艾玛Brunskill: 我认为这是一个非常有趣的问题。有一件事我们发现,而不是在ESTA系统,但在其他的信息系统露出学生了解自己的才是真正的生产通常本身。所以有时会出现类似的事情技能条或其他可视化这让人们知道他们正在取得进展。

拉斯·奥尔特曼: 是。

艾玛Brunskill: 一件事你提到的早些时候,我们很多人觉得很激励观察进展情况,并觉得我们学习自己。这和揭露本身回学习者可以非常强大。

拉斯·奥尔特曼: 当将这些系统,因此可用?有没有从实验室到部署的路径?我敢肯定,你想想看,因为你的工作是由现实世界的问题的动机。该路径做什么样子的呢?

艾玛Brunskill: 我认为它变化。我认为有一件事是,仍然有很多种类的基本问题,以得到正确的。我们已经开始在自己的实验室里做的事情之一,就是接触到新的潜在合作伙伴如何看待这些类型的想法可以在真正的大系统中。之类的东西MOOC的和其他的东西大量的开放式在线课程。

拉斯·奥尔特曼: 谢谢。

艾玛Brunskill: 是的。

拉斯·奥尔特曼: 感谢您的定义缩写。

艾玛Brunskill: 我们,现在还在用大部分是那些通常是传统教学漂亮的方式。然后,讲课,做活动,让人们。有正常的不是很多适应性或个性化的,所以我觉得这些类型的结合使用可能是技术。

拉斯·奥尔特曼: 这是, 未来的一切。 我是拉斯·奥尔特曼,多与医生。艾玛Brunskill关于强化学习,教育和其他AI对获取知识和技能的途径。接下来就SIRIUS XM的121洞察力。

欢迎回来, 未来的一切。 我是拉斯·奥尔特曼。我所说随着博士。艾玛Brunskill关于学习,机器学习和强化学习;特别是在教育我们的最后一段的上下文。现在我想移动到医疗保健。所以这就是我知道你感兴趣的另一个领域,当然近,亲爱的是我的心脏。存在哪些机会,和挑战,成就了这些类型的学习医疗方法?

艾玛Brunskill: 是啊,我是说在此之前,是东西,所以一个,有一件事我们做这个教育体系是试图利用所收集旧数据和结果,并试图推断出我们在ESTA开展未来的事情。 ESTA如果某种推理的东西。我认为医疗记录就是这个一个巨大的机会。我们已经看到了人工智能和机器学习的方式,到目前为止应用于医疗保健,是预测在很大程度上措施的条款。预测诊断或者类似的东西。但对我来说是真正的机会,只是说的一个,“我们正在做的治疗决策不断,建议。”我们能确定身份,如果他们是某种形式的地方ai均有作为副驾驶,我们可以做出更好决策。

所以我们正在尝试使用类似类型的统计方法来找出我们如何使用排序正在由医生或医疗服务提供者做出的决定顺序,如果我们能找到推断事情可能甚至帮助他们做出更好的决策。你可以在某些情况下可以想象特别是,他们可能是那种很微妙的趋势的机器学习系统往往是在揭露很好。而这可能是非常有益的。

拉斯·奥尔特曼: 刚刚回到我们的分数的讨论的情况下,你有很多的分数学习者和通过分数学习他们的路径的例子。然后你有你的新学员,甚至你说,你有他们可能如何能够通过拼接在一起学习很不错的想法。所以我可以采取锁,股票和桶,现在将其传送到医生那里你通过医疗体系有很多病人轨迹,而且我们也许能够帮助得到好的结果更快,由经验拼接在一起其他患者创造一个全新的体验。是...

艾玛Brunskill: 这是完全正确的想法。因此,例如有一件事我们最近在看是肝素凝血方面用药的人,问题是我们可以找出在那里的趋势这将使到那种能够我们,无论是学习,因为同类型的决策策略什么医生做的或潜在的甚至更好。我认为一件事是一个大的,开放的技术,并在做这个挑战是,当我们试图用这些算法通常,我们希望可以访问所有的功能,可能用的人做决定,这些是。这样,在级分游戏的情况下,通过一种算法之中作出的决定。

拉斯·奥尔特曼: 对。

艾玛Brunskill: 所以我们知道的所有功能。如果决定正在被人们提出,无论是人类临床医生或教师,还有的种种可能是微妙的东西,在数据都没有,这是为那些决策非常重要。

拉斯·奥尔特曼: 他们可能没有记录,主要因素在他们的决定。例如,我的意思是作为一个医生我知道我有时会开不同的药基础上,如果它是一个每天十一一天两次不同的人。这是非常难以接受药物每日四次,因此,如果我有两个工作,孩子们一个非常困难的生活,那么四周一天的时间药物的患者,甚至是更好的可能并非补种更好,因为它们不会能够把它。所以,我们就去了11天药物。而那些种,我很少会文件证明。

艾玛Brunskill: 没错,那种特点的是,如果有人排序明确的口头,他们是超强,在电子病历系统超级忙,可能不是把信息。如果我们希望能够到算法开发新的政策决定,我们能够可靠地预测,我们将如何在未来做这种信息,但真的很重要。

拉斯·奥尔特曼: 那我找到医疗合作者你工作有了,这些都是他们打开系统的想法?想象一下,你可以他们会说,“哦,系统会成为第二个猜测我,我很忙,我也不需要有一个唠叨系统提醒我所有的事情我可以做了。”所以我们如何思考引入到医疗保健交付系统非常复杂,这些系统一样的人的方面?

艾玛Brunskill: 我认为这是一个很大的问题,这就是为什么我爱的合作与其他人,与我的同事们喜欢周杰伦blundae HCI我认为包括原因之一 -

拉斯·奥尔特曼: HCI是博狗体育官网。

艾玛Brunskill: 谢谢你,是的。所以,我觉得那些那种认为真正深入思考准备的专家,如何使是真正有用的系统,其供人们使用。

拉斯·奥尔特曼: 对。

艾玛Brunskill: 而且他们的问题,各种重要这是上来了,例如“什么是一套功能,我们应该写下来解释这些?哪些类型的实际限制?我们如何让让这些最终当他们与人交往时,你会得到更好的结果?“因为这些系统不是孤立地只使用。

拉斯·奥尔特曼: 是的,不幸的人是人,我的意思是在一个很好的方式,它在某种程度上简化因为很多人想的方式做出反应,甚至在不同的情况下,以新技术和最佳实践,我们可以得到这一点。

但是,还有一点人做的是,他们担心,我想获得在我们我们的讨论,公平的问题关于,问责制和安全的部分结束。这些系统现在这样很贴心对我有个人的数据。他们知道,如果我是一个快速学习,或慢学习者,或者即使这是一个事。他们知道,如果我有带小数的麻烦,如果是在医疗保健,他们知道多少,我有一个坏的疾病或我是否是一个标准的病人和服用,这是我们使用它的抢了我的药是针对一个可怕的词的词。我敢肯定,你担心这些问题。你怎么接近他们?

艾玛Brunskill: 是的,我觉得他们真的很重要和关键的问题。此外,他们真的很重要的技术问题和其他许多人,我都在思考了很多关于预习这些方面。其实有这样我觉得整个社会是真的,采取这一问题非常重视现在新的会议叫公平,问责制,并在机器学习的透明度。

我想,事情我想,如何使一个是这些系统使得它们可以是一种约束。所以,很多这些系统都试图做一些形式的优化。他们正试图优化分数或者学生想帮助他们的人,他们是处理完善。但我们常常需要某种对他们的约束,有话说,“我们需要这些公平,我们需要为不同的子组男性与女性等等,我们已经算法是要针对不同的子组做的一样好“和我想的令人兴奋的东西给我一个,我们可以形成ESTA经常在数学上,所以我们现在可以创建算法不仅可以公平,但有时可能甚至卫生组织这减少偏见存在于数据。

拉斯·奥尔特曼: 这是 未来的一切。 我是拉斯·奥尔特曼我与艾玛Brunskill谈论公平这个很有意思的话题,甚至消除不公平。所以,是让我们说你“ADH在您的两个例子都用于教育和医疗保健做,你在历史模式期待已试图预测的事情。但是如果例如,发生在学习者如果这些分数为80%和20%的小男孩小女孩,那么也许你当暴露于小女孩,他们没有得到缝合在一起轨迹,他们应该是系统。所以告诉我们,我敢肯定,这是非常技术性的,但你可以给我们什么是公平算法可能会做些什么来改善公平感。当数据,基于它的,是不是很公平吗?

艾玛Brunskill: 是啊,的事情,我们所做的和ESTA经常与我以前的博士后,托马斯·菲尔一起工作之一,就是思考我们怎么投入的约束系统,使你有那种ESTA的,稍微复杂的优化问题。而当我们正在寻找两个,我们想说的是能提供这些情感系统,但我们想要的方式做到这一点,我们确保这对男女双方的,我还是不同的子群体的安全。该系统不公平地在对方的成功惩罚一组。我认为这是我们经常思考的东西的是我们喜欢好了,我们不希望有一个更准确的系统比邪恶女性。它不应该得到男人在那个点球更好的解决方案。我们可以把在数学上的约束。这使得它一点点更复杂的解决和计算量更大,但它是可能的。

拉斯·奥尔特曼: 所以,你用这个词的限制,你可以和它听起来像它有一个非常技术性的意义。你能给我们什么限制一些例子可能是会倾向更公平?

艾玛Brunskill: 是的,因此,例如想象,我们正在考虑更像是一个预测关于任务,如预测的性能测试得分什么的。我想,以确保为这,我可以预测的弯曲精度。比方说,我可以预言他们加上或减去一个点。我不想得到一个算法,可以做到这意味着,那我只能预测女性,加上或减去10分。或者说,我有系统下,预测为女性。所以我们提出,在与可以说,“你能不能过高地预测男性多于女性表示相比于0.05。”或者我们就可以说,“你能不能过高地预测的。”

拉斯·奥尔特曼: 啊,所以你会接受一组不太可能需要的性能,以便使它在所有群体更公平吗?这是什么样的事情,可能会发生?

艾玛Brunskill: 我认为这正是技术问题之一,我们试图回答是,“那是否意味着你“稍微牺牲的一个性能,以确保它的对面每个人都一样好或存在这样的情况,它像是,它赢得了大家你刚刚结束了一个更好的解决方案。“

拉斯·奥尔特曼: 这第二种情况所以当然是轻松的一年?

艾玛Brunskill: 是。

拉斯·奥尔特曼: 但更难一个又一个,我相信有些人会需要讨论和社会协议,是我们做的,以使其更加公平的一组牺牲性能。这里面的,我敢肯定有人会说谁,“是的,绝对!”我敢肯定还有人谁会有麻烦了出来,然后就变成了非技术问题,而是非常重要的决定必须让社会。

艾玛Brunskill: 是的,我认为它不应该是最终从计算机科学家正在这些调用这应该是它的社会。在许多情况下他们是法规规定,你“这不能针对一个系统地组与另一种歧视。所以这是算法要尊重那些已经决定通过我们的社会做出的一种方式。

拉斯·奥尔特曼: 感谢您的收听, 未来的一切。 我是拉斯·奥尔特曼。如果您错过了这个情节,监听与SIRIUS XM的应用需求的任何时间。