- 智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。二维码自定义二维码网站自定义网站或网址
DeepMind大神Silver联手Sutton论证无限猴子原理:用强化学习就能搞定通用人工智能!
DeepMind最近研究了一下大自然,于是决定把「达尔文主义」应用在AI上面。首先给AI设定一个奖励,等AI学会如何把奖励做到最大化,它就是个出色的人工智能代理- 无封面
在家上名校——哈佛MIT等全套CS本科课程,为你备齐了!
想转码却不知所措?怎么飞速系统提高硬核实力?两三年时间,通关哈佛、普林斯顿、麻省理工大学顶尖计算机科学全套课程,拿到计算机科学学位,就问你香不香! 想入门计算机 - 无封面
软件工程必看——10条你最容易忽视的经典法则
本文列出了10条经常被忽视的软件工程法则,包括康威定律、布鲁克斯定律、扎温斯基定律、帕金森定律、帕累托法则、斯特金的启示、彼得原理、Eagleson 定律、Gr - 无封面
2020全球Top10 AI专利公司:美国过半,中国仅占两席
近日,GlobalData发布了一份榜单,列举了2020年各个科技公司在AI领域的专利情况,一些传统行业的公司在AI赛道上也没有落后。进入前十名的公司中,有一半 - 无封面
UC San Diego计算机博士首次证明:Deepfake探测器并非牢不可破!
在1月5日至9日在线举行的 WACV 2021年会议上,计算机学家首次表明,设计用于检测Deepfakes的系统(即通过人工智能操纵真实镜头的视频)可以被欺骗。 - 无封面
陈天奇:在深度学习框架之间共享张量——内存张量结构DLPack的PythonAPI来了
DLPack是一种开放的内存张量结构,用于在框架之间共享张量,近日,开发者陈天奇更新社交媒体详细介绍了为DLPack添加PythonAPI、语义和实现细节的内容 机器学习帮你做家务:外国小哥10分钟给袜子自动配对
打工人下班之后还要为家务发愁?这不,为了摆脱每次都要给洗好的袜子配对的烦恼,一位国外小哥使用机器学习方法,创建了一个可以自动匹配袜子的项目,并且有着神奇的效果。- 无封面
Hinton发布44页最新论文「独角戏」GLOM,表达神经网络中部分-整体层次结构
不同图像有不同的结构,而传统的神经网络无法把固定输入的图像转换为动态的层次结构(解析树)。Hinton的最新论文中,他提出GLOM,通过提出island的概念来 Python迎来30岁生日,先驱Pablo Galindo:没想到Python这么流行
Python 30岁了!就在生日前夕,Python软件基金会下属Python指导委员会中的成员——Pablo Galindo对这位「举世瞩目」superstarASCII上限在何方?除了光线追踪,模拟星系碰撞和流体力学也不在话下
ASCII码的上限到底在何方?国外小哥不仅用ASCII实现光线追踪效果,现在还有了模拟流体动力学! 还记得上次那个用ASCII码实现光线追踪效果的国外小哥吗?金刚狼战士:美军研发细胞「重新编程」技术,是自愈速度的5倍
报道称,美国空军正与密歇根大学合作研究一种治愈伤口的方法,对士兵患者的细胞「重新编程」,使其拥有像X战警中「金刚狼」的特殊能力,伤口愈合速度比普通人快5倍。 还反向传播和生物学没关系?NO!大牛告诉你:在反向传播基础上找到生物学解释
反向传播和生物学无关?近期网上出现了一些质疑,那么二者之间真的没有关系?也许Hinton和Bengio的想法可以解答你的疑惑。 2007年,深度学习研究的先驱们2021年还要不要学编程?看完这20年的薪水曲线再决定
基于编程语言、位置、职位等的开发人员薪酬,已经有很多报道。但是,迄今为止,人们几乎没有做什么工作来记录开发人员工资在过去几年中的涨跌情况。 追踪开发人员过去20OpenAI的GPT-3说话了,请听!
有1750亿参数的超级语言模型GPT-3自发布以来广受关注,目前已有数百名开发者和公司应用了GPT-3,但随着它的商用,很多问题逐渐暴露——消极的语言、有害的偏Facebook&哥大等推出实验性AI框架,音视频信息可自由转换文本!
近日,来自Facebook、哥伦比亚大学等高校的研究人员开发了一种可以从视频、对话历史、音频以及语音文本中生成高层次语义信息的框架——Vx2Text,该模型可以马斯克矩阵模拟错了?这个试验证明人类不是「缸中之脑」
你相信马斯克的矩阵模拟吗?还是相信人类是生活在现实世界的?最近一项人脑研究调查对「人类生活在基础现实」这一说法提供了有力证据,我们并非「缸中之脑」。 也许你也曾第一个AI教堂关了!这位被川普特赦的谷歌前工程师曾为AI封神
他是谷歌自动驾驶部门的开创元老,曾经为AI封神,他就是谷歌前工程师莱万多夫斯基,如今他却悄悄关闭了他的AI教堂,但是他对AI的思考从未停止,当未来出现超越人类智1.6万亿参数,等于9个GPT-3 谷歌开源巨无霸语言模型Switch Transformer
「上个月,谷歌重磅推出的语言模型Switch Transformer代码已经开源,该模型可谓迄今最大语言模型,有1.6万亿参数,秒杀GPT-3!」 万亿级参数模480万标记样本:Facebook提出「预微调」,持续提高语言模型性能
近日,Facebook的研究人员提出了一种能够改善训练语言模型性能的方法——预微调,在大约50个分类、摘要、问答和常识推理数据集上进行了480万个标记样本。 机懒人福音!谷歌AI整理房间、收盘子、叠罗汉,样样拿手!
谷歌AI研究院的研究人员提出了 「Transporter Network」,用全新方式实现3D理解,可以让机械臂更好更快的进行操作。 重新排列物体(比如整理书架