职称论文百科

谷歌2019最佳论文发表

发布时间:2024-07-06 21:18:38

谷歌2019最佳论文发表

2019 年可以说是「预训练模型」流行起来的一年。自 BERT 引发潮流以来,相关方法的研究不仅获得了 EMNLP 大会最佳论文等奖项,更是在 NLP、甚至图像领域里引领了风潮。

去年也有很多 游戏 AI 取得了超越人类的水平。人工智能不仅已经玩转德州扑克、星际争霸和 Dota2 这样复杂的 游戏 ,还获得了 Nature、Science 等顶级期刊的肯定。

机器之心整理了去年全年 在人工智能、量子计算等领域里最为热门的七项研究 。让我们以时间的顺序来看:

第一个重磅研究出现在 2 月,继发布刷新 11 项 NLP 任务记录的 3 亿参数量语言模型 BERT 之后,谷歌 OpenAI 于 2019 年 2 月再次推出了一种更为强大的模型,而这次的模型参数量达到了 15 亿。这是一种 大型无监督语言模型 ,能够生产连贯的文本段落,在许多语言建模基准上取得了 SOTA 表现。此外,在没有任务特定训练的情况下,该模型能够做到初步的阅读理解、机器翻译、问答和自动摘要。

该模型名为 GPT-2,它是基于 Transformer 的大型语言模型,包含 15 亿参数、在一个 800 万网页数据集上训练而成。训练 GPT-2 有一个简单的目标:给定一个文本中前面的所有单词,预测下一个单词。GPT-2 是对 GPT 模型的直接扩展,在超出 10 倍的数据量上进行训练,参数量也多出了 10 倍。

GPT-2 展示了一系列普适而强大的能力,包括生成当前最佳质量的条件合成文本,其中我们可以将输入馈送到模型并生成非常长的连贯文本。此外,GPT-2 优于在特定领域(如维基百科、新闻或书籍)上训练的其它语言模型,而且还不需要使用这些特定领域的训练数据。在 知识问答、阅读理解、自动摘要和翻译等任务 上,GPT-2 可以从原始文本开始学习,无需特定任务的训练数据。虽然目前这些下游任务还远不能达到当前最优水平,但 GPT-2 表明如果有足够的(未标注)数据和计算力,各种下游任务都可以从无监督技术中获益。

最后,基于大型通用语言模型可能会产生巨大的 社会 影响,也考虑到模型可能会被用于恶意目的,在发布 GPT-2 时,OpenAI 采取了以下策略: 仅发布 GPT-2 的较小版本和示例代码,不发布数据集、训练代码和 GPT-2 模型权重 。

机器学习顶会的最佳论文,总会引起人们的广泛讨论。在今年 6 月于美国加州举办的 ICML 2019(国际机器学习大会)上,由苏黎世联邦理工学院(ETH)、德国马普所、谷歌大脑共同完成的《Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations》获得了其中一篇最佳论文。研究者在论文中提出了一个与此前学界普遍预测相反的观点:对于任意数据,拥有相互独立表征(解耦表征)的无监督学习是不可能的。

论文链接:

在这篇论文中,研究者冷静地审视了该领域的最新进展,并对一些常见的假设提出了质疑。

首先,研究者表示从理论上来看,如果不对模型和数据进行归纳偏置,无监督学习解耦表征基本是不可能的;然后他们在七个不同数据集进行了可复现的大规模实验,并训练了 12000 多个模型,包括一些主流方法和评估指标;最后,实验结果表明,虽然不同的方法强制执行了相应损失「鼓励」的属性,但如果没有监督,似乎无法识别完全解耦的模型。此外,增加的解耦似乎不会导致下游任务学习的样本复杂度的下降。

研究者认为,基于这些理论,机器学习从业者对于超参数的选择是没有经验法则可循的,而在已有大量已训练模型的情况下, 无监督的模型选择仍然是一个很大的挑战 。

去年 6 月,来自德国波恩-莱茵-锡格应用技术大学和谷歌大脑的研究者发表了一篇名为《Weight Agnostic Neural Networks》的论文,进而引爆了机器学习圈。在该论文中,他们提出了一种神经网络架构搜索方法, 这些网络可以在不进行显式权重训练的情况下执行各种任务 。

论文链接:

通常情况下,权重被认为会被训练成 MNIST 中边角、圆弧这类直观特征,而如果论文中的算法可以处理 MNIST,那么它们就不是特征,而是函数序列/组合。对于 AI 可解释性来说,这可能是一个打击。很容易理解,神经网络架构并非「生而平等」,对于特定任务一些网络架构的性能显著优于其他模型。但是相比架构而言,神经网络权重参数的重要性到底有多少?

来自德国波恩-莱茵-锡格应用技术大学和谷歌大脑的一项新研究提出了一种神经网络架构搜索方法,这些网络可以在不进行显式权重训练的情况下执行各种任务。

为了评估这些网络,研究者使用从统一随机分布中采样的单个共享权重参数来连接网络层,并评估期望性能。结果显示,该方法可以找到少量神经网络架构,这些架构可以在没有权重训练的情况下执行多个强化学习任务,或 MNIST 等监督学习任务。

BERT 带来的影响还未平复,CMU 与谷歌大脑 6 月份提出的 XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了当前最佳效果。

来自卡耐基梅隆大学与谷歌大脑的研究者提出新型预训练语言模型 XLNet,在 SQuAD、GLUE、RACE 等 20 个任务上全面超越 BERT。

作者表示, BERT 这样基于去噪自编码器的预训练模型可以很好地建模双向语境信息,性能优于基于自回归语言模型的预训练方法 。然而,由于需要 mask 一部分输入,BERT 忽略了被 mask 位置之间的依赖关系,因此出现预训练和微调效果的差异(pretrain-finetune discrepancy)。

基于这些优缺点,该研究提出了一种泛化的自回归预训练模型 XLNet。XLNet 可以:1)通过最大化所有可能的因式分解顺序的对数似然,学习双向语境信息;2)用自回归本身的特点克服 BERT 的缺点。此外,XLNet 还融合了当前最优自回归模型 Transformer-XL 的思路。

延伸阅读:

2019 年 7 月,在无限制德州扑克六人对决的比赛中,德扑 AI Pluribus 成功战胜了五名专家级人类玩家。Pluribus 由 Facebook 与卡耐基梅隆大学(CMU)共同开发,实现了前辈 Libratus(冷扑大师)未能完成的任务,该研究已经登上了当期《科学》杂志。

据介绍,Facebook 和卡内基梅隆大学设计的比赛分为两种模式:1 个 AI+5 个人类玩家和 5 个 AI+1 个人类玩家,Pluribus 在这两种模式中都取得了胜利。如果一个筹码值 1 美元,Pluribus 平均每局能赢 5 美元,与 5 个人类玩家对战一小时就能赢 1000 美元。职业扑克玩家认为这些结果是决定性的胜利优势。 这是 AI 首次在玩家人数(或队伍)大于 2 的大型基准 游戏 中击败顶级职业玩家 。

在论文中,Pluribus 整合了一种新的在线搜索算法,可以通过搜索前面的几步而不是只搜索到 游戏 结束来有效地评估其决策。此外,Pluribus 还利用了速度更快的新型 Self-Play 非完美信息 游戏 算法。综上所述,这些改进使得使用极少的处理能力和内存来训练 Pluribus 成为可能。 训练所用的云计算资源总价值还不到 150 美元 。这种高效与最近其他人工智能里程碑项目形成了鲜明对比,后者的训练往往要花费数百万美元的计算资源。

Pluribus 的自我博弈结果被称为蓝图策略。在实际 游戏 中,Pluribus 使用搜索算法提升这一蓝图策略。但是 Pluribus 不会根据从对手身上观察到的倾向调整其策略。

在人工智能之外的量子计算领域,去年也有重要的研究突破。2019 年 9 月,谷歌提交了一篇名为《Quantum supremacy using a programmable superconducting processor》的论文自 NASA 网站传出,研究人员首次在实验中证明了量子计算机对于传统架构计算机的优越性:在世界第一超算 Summit 需要计算 1 万年的实验中,谷歌的量子计算机只用了 3 分 20 秒。因此,谷歌宣称实现「量子优越性」。之后,该论文登上了《自然》杂志 150 周年版的封面。

这一成果源自科学家们不懈的努力。谷歌在量子计算方向上的研究已经过去了 13 年。2006 年,谷歌科学家 Hartmut Neven 就开始 探索 有关量子计算加速机器学习的方法。这项工作推动了 Google AI Quantum 团队的成立。2014 年,John Martinis 和他在加利福尼亚大学圣巴巴拉分校(UCSB)的团队加入了谷歌的工作,开始构建量子计算机。两年后,Sergio Boixo 等人的论文发表,谷歌开始将工作重点放在实现量子计算优越性任务上。

如今,该团队已经构建起世界上第一个超越传统架构超级计算机能力的量子系统,可以进行特定任务的计算。

量子优越性实验是在一个名为 Sycamore 的 54 量子比特的完全可编程处理器上运行的。该处理器包含一个二维网格,网格中的每个量子比特与其他四个相连。量子优越性实验的成功归功于谷歌改进了具有增强并行性的双量子比特门,即使同时操作多个门,也能可靠地实现记录性能。谷歌使用一种新型的控制旋钮来实现这一性能,该旋钮能够关闭相邻量子比特之间的交互。此举大大减少了这种多连通量子比特系统中的误差。此外,通过优化芯片设计来降低串扰,以及开发避免量子比特缺陷的新控制校准,谷歌进一步提升了性能。

虽然 AI 没有打败最强人类玩家 Serral,但其研究的论文仍然登上了 Nature。2019 年 10 月底,DeepMind 有关 AlphaStar 的论文发表在了当期《Nature》杂志上,这是人工智能算法 AlphaStar 的最新研究进展,展示了 AI 在「没有任何 游戏 限制的情况下」已经达到星际争霸Ⅱ人类对战天梯的顶级水平,在 Battle.net 上的排名已超越 99.8%的活跃玩家 。

回顾 AlphaStar 的发展历程,DeepMind 于 2017 年宣布开始研究能进行即时战略 游戏 星际争霸Ⅱ的人工智能——AlphaStar。2018 年 12 月 10 日,AlphaStar 击败 DeepMind 公司里的最强玩家 Dani Yogatama;12 月 12 日,AlphaStar 已经可以 5:0 击败职业玩家 TLO 了(TLO 是虫族玩家,据 游戏 解说们认为,其在 游戏 中的表现大概能有 5000 分水平);又过了一个星期,12 月 19 日,AlphaStar 同样以 5:0 的比分击败了职业玩家 MaNa。至此,AlphaStar 又往前走了一步,达到了主流电子竞技 游戏 顶级水准。

根据《Nature》论文描述,DeepMind 使用通用机器学习技术(包括神经网络、借助于强化学习的自我博弈、多智能体学习和模仿学习)直接从 游戏 数据中学习。AlphaStar 的 游戏 方式令人印象深刻——这个系统非常擅长评估自身的战略地位,并且准确地知道什么时候接近对手、什么时候远离。此外,论文的中心思想是将 游戏 环境中虚构的自我博弈扩展到一组智能体,即「联盟」。

联盟这一概念的核心思想是:仅仅只是为了赢是不够的。相反,实验需要主要的智能体能够打赢所有玩家,而「压榨(exploiter)」智能体的主要目的是帮助核心智能体暴露问题,从而变得更加强大。这不需要这些智能体去提高它们的胜率。通过使用这样的训练方法,整个智能体联盟在一个端到端的、完全自动化的体系中学到了星际争霸Ⅱ中所有的复杂策略。

2019 年在 AI 领域的各个方向上都出现了很多技术突破。新的一年,我们期待更多进展。

此外,机器之心于 2019 年 9 月底推出了自己的新产品 SOTA 模型,读者可以根据自己的需要寻找机器学习对应领域和任务下的 SOTA 论文,平台会提供论文、模型、数据集和 benchmark 的相关信息。

谷歌学术引用量是衡量一篇学术论文影响力的重要指标之一。然而,要确定引用量多少以上算大牛并不是一个简单的问题,因为它取决于很多因素,比如研究领域、研究对象、发表时间等。一般来说,引用量在几十到几百之间的文章可以算是有一定影响力的研究成果。如果一篇文章的引用量超过500,那么可以认为它在该领域的研究中具有非常高的影响力。如果一篇文章的引用量超过1000,那么它就是一个非常重要的研究成果,可以算是大牛级别。当然,这只是一个大概的估计。实际上,不同学科领域、不同研究对象、不同发表时间等都会对引用量的评估产生影响。因此,要确定一篇文章是否算是大牛级别,需要结合具体情况进行分析和判断。

. 谷歌学术引用量 2000 个以上:表明研究者的研究成果具有极高的价值和影响力,是该领域的大牛级别人物,享有较高的声誉和影响力。需要注意的是,引用量高的学者不一定代表所有研究都是高水平的,只是代表其研究成果获得了其他学者的认可和引用。因此,在评价学者或研究团队时,还需要综合考虑其他指标,如各项研究评价、影响力、学科影响力、办学水平等等。

谷歌公司最新发表论文

原来棋手正通过这些电子产品与外界同伙沟通,试图利用AI作弊。其衣扣上的微型相机实时拍摄棋局信息,负责接收的同伙利用AI技术分析棋盘局势,并将反馈结果传递到棋手的无线耳机中。据了解,棋手所使用的AI技术正是由比利时程序员Gian-Carlo Pascutto(GCP)开发的AI项目Leela Zero,它是围棋领域为数不多的开源项目之一,所有人在Github上都可以下载使用。由于裁判发现及时,棋手及同伙的作弊行为并未成功。不过,韩国棋院认为二人行为影响恶劣,触犯了“业务妨碍罪”,交由警察处理后,还委托律师拟定起诉书,对二人提起了刑事诉讼。近日,韩国东部地方法院作出最终判决:嫌疑人A以职业定段为目的,与同伙B经过周密计划,利用智能技术违规比赛规则,严重破坏了比赛的公平、公正,性质非常恶劣。经认定,判处嫌疑人A一年有期徒刑,其同伙B一年有期徒刑,缓期一年执行,并提供120小时社会服务。”至此,这场令人不齿的作弊事件算是以应有的惩罚收尾。不过,在事件的背后,有网友感叹,现在随便一个AI都可以战胜职业选手了吗?还有网友调侃道,人工智能已经开始奴役人类了!谈到AI在围棋中击败人类,大部分人可能首先想到的都是谷歌出品的AlphaGo。2016年,AlphaGo以4:1战胜世界顶级职业选手李世石2017年,AlphaGo Master再次以3:0战胜中国围棋甲级联赛主将柯洁事实上,在此之后,AI在围棋领域的技术研发从未间断,经过四年的发展,能够战胜人类世界冠军水平的AI,也已经远不止AlphaGo一个。作弊工具Leela Zero,战绩颇丰熟悉围棋的朋友可能了解,Leela Zero 并不是一个名不见经传的AI棋手。它曾在第32、38、42届KGS计算机围棋大赛多次夺冠,在2008年计算机奥林匹克赛上获得九路围棋银牌和十九路围棋铜牌。Leela Zero是GCP根据谷歌最强开源项目Alpha Zero扩展而来。如同Alpha Zero的发展路径,它不借助任何人类知识,完全从零开始训练。同时,它采用分布式计算,通过他人电脑生成的自对弈棋谱传送到服务器上进行训练,以此借助全球志愿者的力量为Leela Zero项目提供算力支持。据了解,Leela Zero的棋力正是通过神经网络权重的不断更迭而提升的(权重:表征神经网络内部联系的一系列参数)。当服务器对棋谱进行训练后,会产生新的网络权重,新的权重会与之前的最强权重对局,用以检验棋力,如果它在400局中胜率超过55%就会被更新为当前的最强权重。现在每天有近600人为Leela Zero提供训练棋谱,在最近半年时间内,Leela Zero已经自我对弈700万局,经历128次权重更迭。另外,Leela-Zero凭借出色的棋力已经成为了人类最佳围棋陪练师。它非常规性的打法、出其不意的布局,常常能够带给人类突破性的启发。因此很多围棋爱好者喜欢通过与它博弈或者复盘训练来提升自己的棋力。一位微博网友还分享了他看Leela-Zero自战局的感受,特别赏心悦目。中国棋士柯洁也发文表示:Leela Zero训练厉害了,我是不是也要攒钱买一台超级计算机来跑AI,现在学编程还来得及吗?这款Leela Zero项目从2017年就在Github开源了,目前已经收割了4.1k星标。Github开源地址奉上,链接内含详细下载安装流程,按提示操作完成后,就可以与AI棋手在线博弈了。AI碾压人类,轻轻松松如柯洁所说现在国内外的AI棋手已经非常之多,而且能够打败世界级职业选手的也不再少数。如国内经典棋手腾讯绝艺。在最近的2019年,绝艺第四次夺得了“世界智能围棋公开赛冠军”。它是腾讯AI Lab自研的一款围棋AI。从2016年发布首个版本到现在,已经在各大赛事中,先后战胜过柯洁,古力,朴廷桓等一百多位职业棋手。不过,值得一提的是,这位AI围棋常胜将军却在2018年的世界人工智能围棋大赛中,败给了自家兄弟“PhoenixGo”。PhoenixGo,俗称“金毛”(因比赛时的头像而得名),是微信翻译团队研发人工智能围棋程序。在这场世界级AI围棋大赛中,PhoenixGo一举夺冠,战胜了来自中、日、韩、欧美等国家和地区的一流AI围棋高手。如LeelaZero、TSGo、DolBaram(石子旋风)、Golois,HEROZ Kishi、Baduki等。(Github开源地址)说到国内比较出色的AI棋手,还有一位不得不提,它就是“星阵围棋”。在2018年,“贝瑞基因杯”世界人工智能围棋大赛人机大战中,星阵围棋执黑145手战胜柯洁,之后,在“让先三十番棋”挑战赛中,轮番对战职业选手时越、江维杰、崔哲瀚、元晟溱、周俊勋等世界冠军,最终以40:1的战绩夺冠,胜率达到97.6%。更重要的是,星阵围棋是一款纯国产AI。其他AI棋手大部分都是师从谷歌论文,星阵是独创了自己的研发程序,而且它的对战策略也与谷歌明显不同。谷歌算法更偏向胜率,为保持大局经常会选择暂时退让,而星阵的策略是强势进攻,把人类按在地上摩擦,能前进绝不退让。据了解,星际围棋的前身是清华大学的“神算子”,后经过深客科技完成了后续的技术升级。该公司董事长金涬博士,在大数据、深度学习、人工智能领域深耕多年,是人工智能在围棋产业应用的重要推动者。历数国外的围棋AI,除了谷歌的Alpha系列外,最出色的可能就是Facebook出品的ELF OpenGo了。这款AI围棋项目也于2018年在Github开源了。研究团队表示,此次开放源代码是希望激励相关爱好者思考这项技术新的应用和研究方向。在战绩方面,ELF OpenGo曾与Leela Zero在一场比赛中交手,最终以200:0的战绩获胜。此外,它还在与世界级职业选手的对战赛中,创造了14胜0负的记录。据官方介绍,在比赛中 OpenGo 使用单块 GPU 每步 50 秒的搜索时间(每步搜索 8 万个局面),而人类棋手并没有限制下棋思考的时间。从围棋转战RTS看到这里,AI在围棋界碾压人类顶级选手已经成为一个非常轻松的事儿。不过,AI研发的目的并不在此,围棋因其游戏规则和策略的复杂性被研究人员视为AI训练的最佳试验田,一方面,AI通过与人类的博弈对抗,可以快速提升其深度学习和思考能力。另一方面,其综合大数据而获得作战布局,也可以为人类带来更多的启发性思考。可以说二者在相互博弈同共同成长。此外,围棋的复杂性已经不能满足AI的需求了。近些年,AI的训练场景已经逐步从围棋、德州扑克转向了更为复杂的RTS即时策略性游戏。作为经典RTS游戏,《星际争霸》因非完全信息、作战空间复杂、毫秒级决策等特点,而成为众多团队的研发目标。目前,以谷歌为首的人工智能公司在该领域探索也取得了突破性进展。 去年10月,谷歌发表最新论文登上《Nature》杂志,论文指出其研发的AlphaStar在排行榜单上超越了 99.8%的活跃玩家,而且最高达到了星际争霸 2 人类对战天梯的顶级水平,并给出了对战影像资料。此外,国内一家人工智能公司启元世界异军突起,其研发“星际AI”在最近的挑战赛中以2:0战胜了世界顶级职业选手。该研发团队表示,公司自成立之初便围绕《星际争霸》开展星际AI的研发工作,其目的一是在游戏行业,为玩家们提供更好的游戏体验,二是是通过AI智能体的训练,敲开通向通用人工智能(AGI)的大门。

Google在科学杂志《自然》上发表的一篇新文章中正式宣布已实现“量子霸权” ,这离公司最初泄漏该事件的发生刚好一个月,当时,Google的论文被意外地提前发表。不过,Google现在的正式宣布则意味着这项研究的全部细节都会被公开的,科学界可以更广泛地审查Google所说的成就。

谷歌表示,其54比特Sycamore处理器能够在200秒内完成世界上最强大的超级计算机花费10000年所需的随机数计算量,这让目前所有的非量子计算机相形见绌。

而就在今天,另一家超级计算机公司IBM正在对谷歌的说法提出异议。在周一抢先发表的博客文章中,该公司表示,在传统系统上可以在2.5天之内完成相同的任务,而不是Google声称的10000年。 IBM说,在估算其传统超级计算机执行计算所需的时间时,Google“未能充分考虑大量磁盘存储”的开销。

尽管IBM试图淡化Google的成就,但研究界人士对此消息表示欢迎,《纽约时报》引述科学家的话将Google的突破与莱特兄弟1903年的首次飞机飞行相提并论。

距离量子计算开始逐渐被运用,我们可能还需要数年的时间,但是Google的发现最终可以提供证据,证明量子计算的未来已经有了可能。

谷歌发表论文

可解释性仍然是现代深度学习应用的最大挑战之一

相信这两天大家朋友圈都被Google Map新功能演示刷屏了,视频中介绍说Google Map将在一些城市实现实景渲染,在手机中能够就从不同视角能逼真地浏览城市场景,甚至还能实现从室外到室内的无缝融合。

这个视频引发很多讨论,看明白的、看不明白的都在各抒己见,真的非常有意思。有人看到视频中从室外飞到室内,就联想到国内房地产行业做的一些卖房应用,直言房地产公司已经吊打谷歌;也有人看到视频中围绕着威斯敏特大教堂转一圈,就觉得这不就是倾斜摄影,早就烂大街的东西。

那正在看这篇文章的读者,你的心里又是什么看法呢?

究竟是不是谷歌不行了呢?

02

Block-NeRF是什么?

伟人说过,没有调查就没有发言权。想搞清楚这背后的技术细节,最好的办法就是去看文献。刚好在CVPR 2022会议上就有一篇Google员工发表的论文《 Block-NeRF: Scalable Large Scene Neural View Synthesis 》,该论文就是Google Map这次产品更新背后的实现技术。

单看论文题目,可以知道这篇文章主要介绍一种叫做Block-NeRF的新方法,这个方法可以进行大场景神经视图合成。

视图合成,简单来说就是根据已有的视图(也就是图片)来合成一张不同视角下的新图片。举个不恰当的例子,你站在一个人左侧拍了一张照片,又站在一个人的右侧拍了一张照片,这时候你想知道站在这个人正前方拍的照片是什么样的。你在这个人左右两侧拍的照片就是已有的视图,而你想要的正前方的照片就是需要合成的视图。

当然,实际操作中一般会拍摄更多的照片,否则就难以达到理想的效果。视图合成并不是什么新概念,早期很多Image Based Rendering方向的论文就是做这个的,比较基础的方法也就是通过对现有图像进行插值来生成新的图像。当然,为了不断地提升合成图像的质量,方法变得越来越复杂。

来到AI时代,自然也会有人考虑用AI做视图合成,其中的佼佼者就是NeRF。NeRF 是 2020 年 ECCV 上获得最佳论文荣誉提名的工作,其影响力是十分巨大的。NeRF 将隐式表达推上了一个新的高度,仅用2D的姿态已知的图像作为监督,即可表示复杂的三维场景,在新视角合成这一任务上取得非常好的效果。但是NeRF受限于有限的模型容量,只能重建小尺度场景,比如一个物体、一个房间、一栋建筑等等。

Google在NeRF的基础上更进一步,通过将场景分割为多个部分,每个部分单独用一个NeRF进行训练,最后将各个NeRF合成的视图混合,从而实现大场景的视图合成。这就是Block-NeRF最核心的思想。

03

你还认为Google Map渲染的是倾斜吗?

我们现在文章里找找证据。文章在研究现状首先就介绍了大场景三维重建的内容,提到COLMAP、PMVS等知名计算机视觉项目,但同时也提到通过3D重建得到的模型存在很多变形和黑洞,这正是现在倾斜摄影模型存在的严重问题。

最后,总结说三维重建更加注重精度,而本文的任务属于新视图合成领域,甚至Block-NeRF算法都没有利用SfM(Structure from Motion)算法来获取相机位姿,仅利用车载传感器读数作为模型训练数据。

看到这里,我想大家都知道Google Map渲染的不是倾斜模型了。可是为什么要大费周章地用几百万张图片来训练Block-NeRF模型呢?从视频中不难看出,浏览过程中非常平滑,没有倾斜那种LOD过渡的感觉,而且,合成出来的图像还可以进行光照、天气等效果的调整。

当然,肯定还会有人说,现在把倾斜摄影模型导入 游戏 引擎也能有各种光照和天气效果,但是倾斜摄影模型本身的纹理就已经记录拍摄时的光照信息,即使添加一些 游戏 引擎的效果,所看到的画面也没有Google Map那么纯净。

另外,Block-Neft里还提到在制作训练数据时,把图片中的移动目标(如车和行人)等遮罩掉,使得合成的图像里不会出现车和行人的干扰。相较之下,倾斜摄影模型中的车辆和行人往往需要人工去压平修复。

从个人角度来说,我觉得Block-NeRF比倾斜摄影更加优雅。只要根据用户浏览的位置和朝向,就可以在云端实时渲染出一张以假乱真的图片。虽然倾斜也可以走云渲染的路线,但就显示效果和渲染效率来说,目前看到的应用案例也仅仅时刚刚够用而已。至于Block-NeRF会不会取代倾斜摄影,个人觉得目前并不需要此类的担心。

推动神经网络的研究,使得人们对其更加了解

最近,谷歌大脑团队发表了一篇论文,文中提出了一种叫做概念激活向量(Concept Activation vectors,CAV)的新方法,这种方法为深度学习模型的可解释性提供了一个全新的视角。

可解释性仍然是现代深度学习应用的最大挑战之一。计算模型和深度学习研究领域近期取得了很大进展,创建了非常复杂的模型,这些模型可以包括数千个隐藏层、数千万神经元。虽然创建高级深度神经网络相对简单,但理解如何创建这些模型以及它们如何使用知识仍然是一个挑战。最近,谷歌大脑(Google Brain)团队发表了一篇论文《Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)》,提出一种叫作「概念激活向量」(Concept Activation Vectors,CAV)的新方法,为深度学习模型的可解释性提供了全新视角。

可解释性与准确率:理解 CAV 技术,需要首先理解深度学习模型可解释性难题的本质。在这一代深度学习技术中,模型准确率与可解释性之间存在永久的冲突。可解释性与准确性之间的冲突也是实现复杂知识任务与如何实现这些任务之间的冲突。知识与控制、性能与可解释性、效率与简洁……这些问题都可以通过权衡准确率与可解释性来解释。

你想要最佳结果还是想理解这些结果是如何产生的?这是数据科学家在每个深度学习场景中都要回答的问题。很多深度学习技术本质上是复杂的,尽管在很多情况下它们产生的结果是准确的,但是它们难以解释。如果我们绘制一些著名深度学习模型的可解释性和准确率,可以得到:深度学习模型的可解释性不是一个单一的概念,可以跨多个层次来理解:要跨越上图定义的层次来解释模型,需要一些基础的构建块。在近期的一篇文章中,谷歌的研究人员概述了他们认为解释模型所需的基础构建块。

谷歌将可解释性原则总结如下:理解隐藏层做了什么:深度学习模型中的大部分知识是在隐藏层中形成的。要解释深度学习模型,必须要从宏观角度理解不同隐藏层的功能。理解节点是如何激活的:可解释性的关键不是理解网络中单一神经元的功能,而是要理解在同一空间位置一起激活的互相连接的神经元组。通过互相连接的神经元组分割网络可以从更简单的抽象层次来理解其功能。理解概念是如何形成的:深度神经网络如何形成可组装成最终输出的单个概念,理解这一问题是另一个关键的可解释性构建块。

谷歌论文发表

看你发到哪了,含金量高的就不怕找不到

Google已经被大陆屏蔽了 你可以去Google香港的服务器

原来棋手正通过这些电子产品与外界同伙沟通,试图利用AI作弊。其衣扣上的微型相机实时拍摄棋局信息,负责接收的同伙利用AI技术分析棋盘局势,并将反馈结果传递到棋手的无线耳机中。据了解,棋手所使用的AI技术正是由比利时程序员Gian-Carlo Pascutto(GCP)开发的AI项目Leela Zero,它是围棋领域为数不多的开源项目之一,所有人在Github上都可以下载使用。由于裁判发现及时,棋手及同伙的作弊行为并未成功。不过,韩国棋院认为二人行为影响恶劣,触犯了“业务妨碍罪”,交由警察处理后,还委托律师拟定起诉书,对二人提起了刑事诉讼。近日,韩国东部地方法院作出最终判决:嫌疑人A以职业定段为目的,与同伙B经过周密计划,利用智能技术违规比赛规则,严重破坏了比赛的公平、公正,性质非常恶劣。经认定,判处嫌疑人A一年有期徒刑,其同伙B一年有期徒刑,缓期一年执行,并提供120小时社会服务。”至此,这场令人不齿的作弊事件算是以应有的惩罚收尾。不过,在事件的背后,有网友感叹,现在随便一个AI都可以战胜职业选手了吗?还有网友调侃道,人工智能已经开始奴役人类了!谈到AI在围棋中击败人类,大部分人可能首先想到的都是谷歌出品的AlphaGo。2016年,AlphaGo以4:1战胜世界顶级职业选手李世石2017年,AlphaGo Master再次以3:0战胜中国围棋甲级联赛主将柯洁事实上,在此之后,AI在围棋领域的技术研发从未间断,经过四年的发展,能够战胜人类世界冠军水平的AI,也已经远不止AlphaGo一个。作弊工具Leela Zero,战绩颇丰熟悉围棋的朋友可能了解,Leela Zero 并不是一个名不见经传的AI棋手。它曾在第32、38、42届KGS计算机围棋大赛多次夺冠,在2008年计算机奥林匹克赛上获得九路围棋银牌和十九路围棋铜牌。Leela Zero是GCP根据谷歌最强开源项目Alpha Zero扩展而来。如同Alpha Zero的发展路径,它不借助任何人类知识,完全从零开始训练。同时,它采用分布式计算,通过他人电脑生成的自对弈棋谱传送到服务器上进行训练,以此借助全球志愿者的力量为Leela Zero项目提供算力支持。据了解,Leela Zero的棋力正是通过神经网络权重的不断更迭而提升的(权重:表征神经网络内部联系的一系列参数)。当服务器对棋谱进行训练后,会产生新的网络权重,新的权重会与之前的最强权重对局,用以检验棋力,如果它在400局中胜率超过55%就会被更新为当前的最强权重。现在每天有近600人为Leela Zero提供训练棋谱,在最近半年时间内,Leela Zero已经自我对弈700万局,经历128次权重更迭。另外,Leela-Zero凭借出色的棋力已经成为了人类最佳围棋陪练师。它非常规性的打法、出其不意的布局,常常能够带给人类突破性的启发。因此很多围棋爱好者喜欢通过与它博弈或者复盘训练来提升自己的棋力。一位微博网友还分享了他看Leela-Zero自战局的感受,特别赏心悦目。中国棋士柯洁也发文表示:Leela Zero训练厉害了,我是不是也要攒钱买一台超级计算机来跑AI,现在学编程还来得及吗?这款Leela Zero项目从2017年就在Github开源了,目前已经收割了4.1k星标。Github开源地址奉上,链接内含详细下载安装流程,按提示操作完成后,就可以与AI棋手在线博弈了。AI碾压人类,轻轻松松如柯洁所说现在国内外的AI棋手已经非常之多,而且能够打败世界级职业选手的也不再少数。如国内经典棋手腾讯绝艺。在最近的2019年,绝艺第四次夺得了“世界智能围棋公开赛冠军”。它是腾讯AI Lab自研的一款围棋AI。从2016年发布首个版本到现在,已经在各大赛事中,先后战胜过柯洁,古力,朴廷桓等一百多位职业棋手。不过,值得一提的是,这位AI围棋常胜将军却在2018年的世界人工智能围棋大赛中,败给了自家兄弟“PhoenixGo”。PhoenixGo,俗称“金毛”(因比赛时的头像而得名),是微信翻译团队研发人工智能围棋程序。在这场世界级AI围棋大赛中,PhoenixGo一举夺冠,战胜了来自中、日、韩、欧美等国家和地区的一流AI围棋高手。如LeelaZero、TSGo、DolBaram(石子旋风)、Golois,HEROZ Kishi、Baduki等。(Github开源地址)说到国内比较出色的AI棋手,还有一位不得不提,它就是“星阵围棋”。在2018年,“贝瑞基因杯”世界人工智能围棋大赛人机大战中,星阵围棋执黑145手战胜柯洁,之后,在“让先三十番棋”挑战赛中,轮番对战职业选手时越、江维杰、崔哲瀚、元晟溱、周俊勋等世界冠军,最终以40:1的战绩夺冠,胜率达到97.6%。更重要的是,星阵围棋是一款纯国产AI。其他AI棋手大部分都是师从谷歌论文,星阵是独创了自己的研发程序,而且它的对战策略也与谷歌明显不同。谷歌算法更偏向胜率,为保持大局经常会选择暂时退让,而星阵的策略是强势进攻,把人类按在地上摩擦,能前进绝不退让。据了解,星际围棋的前身是清华大学的“神算子”,后经过深客科技完成了后续的技术升级。该公司董事长金涬博士,在大数据、深度学习、人工智能领域深耕多年,是人工智能在围棋产业应用的重要推动者。历数国外的围棋AI,除了谷歌的Alpha系列外,最出色的可能就是Facebook出品的ELF OpenGo了。这款AI围棋项目也于2018年在Github开源了。研究团队表示,此次开放源代码是希望激励相关爱好者思考这项技术新的应用和研究方向。在战绩方面,ELF OpenGo曾与Leela Zero在一场比赛中交手,最终以200:0的战绩获胜。此外,它还在与世界级职业选手的对战赛中,创造了14胜0负的记录。据官方介绍,在比赛中 OpenGo 使用单块 GPU 每步 50 秒的搜索时间(每步搜索 8 万个局面),而人类棋手并没有限制下棋思考的时间。从围棋转战RTS看到这里,AI在围棋界碾压人类顶级选手已经成为一个非常轻松的事儿。不过,AI研发的目的并不在此,围棋因其游戏规则和策略的复杂性被研究人员视为AI训练的最佳试验田,一方面,AI通过与人类的博弈对抗,可以快速提升其深度学习和思考能力。另一方面,其综合大数据而获得作战布局,也可以为人类带来更多的启发性思考。可以说二者在相互博弈同共同成长。此外,围棋的复杂性已经不能满足AI的需求了。近些年,AI的训练场景已经逐步从围棋、德州扑克转向了更为复杂的RTS即时策略性游戏。作为经典RTS游戏,《星际争霸》因非完全信息、作战空间复杂、毫秒级决策等特点,而成为众多团队的研发目标。目前,以谷歌为首的人工智能公司在该领域探索也取得了突破性进展。 去年10月,谷歌发表最新论文登上《Nature》杂志,论文指出其研发的AlphaStar在排行榜单上超越了 99.8%的活跃玩家,而且最高达到了星际争霸 2 人类对战天梯的顶级水平,并给出了对战影像资料。此外,国内一家人工智能公司启元世界异军突起,其研发“星际AI”在最近的挑战赛中以2:0战胜了世界顶级职业选手。该研发团队表示,公司自成立之初便围绕《星际争霸》开展星际AI的研发工作,其目的一是在游戏行业,为玩家们提供更好的游戏体验,二是是通过AI智能体的训练,敲开通向通用人工智能(AGI)的大门。

国内没办法直接上谷歌的网站 你可以搜索下载个E9代理加速器 这样就能上Google下载东西了

在谷歌发表论文

论文是在谷歌论文里面的,因为谷歌论文是集结所有论文的地方,而谷歌文学一般是文学方面的文章,所以论文是在谷歌论文里面

论文是在谷歌论文还是谷歌文学里面啊答案如下,仔论文可以用谷歌学术

1、首先打开谷歌学术搜索网址。2、输入你需要查找的论文的全名或关键词。3、然后点开自己感兴趣的标题便可以查看文章摘要或转到可以查看全文的网站了。至于能不能下载全文要看你们机构是否购买了这个期刊。4、如果在搜索的结果旁边直接带有[PDF]字样,说明这个文章可以直接下载pdf文档,不需要付费。5、如果打不开谷歌学术怎么办?6、可以看到,使用GFsoso我们可以搜到和谷歌学术相同的结果。7、需要注意的一点是,有时候GFsoso会有大量的人使用,可能会出现系统繁忙暂时无法使用的情况。遇到这种情况,你只需要刷新一下或者稍等片刻继续搜索便可正常使用。8、另外,使用GFsoso还可以顺便进行谷歌搜索哦,不过如果搜到后想继续打开,有时候便会出现打开失败的情况,这要看你打开的是什么网站了。

相关百科
热门百科
首页
发表服务