机器学习和神经网络 - 页 11

 

深度学习英雄:吴恩达访谈百度研究院负责人林元庆




深度学习英雄:吴恩达访谈百度研究院负责人林元庆

百度研究院负责人、中国深度学习国家实验室负责人林元庆讨论了国家实验室的成立及其对深度学习社区的影响。 Lin 就中国在深度学习方面的投资及其如何促进各个行业的增长提供了见解。他强调了人工智能开发中反馈循环的重要性,以及这如何有助于创造更好的算法和技术。 Lin 建议个人在机器学习方面打下坚实的基础,并从开源框架入手,以成功进入该领域。

  • 00:00:00 在这一部分,百度研究院负责人、中国深度学习国家实验室负责人林元庆讲述了他的个人故事以及他是如何进入机器学习领域的。 Lin 分享说,他在 UPenn 攻读博士学位时将研究领域从物理学转向了机器学习,他发现这是一次非常令人兴奋的经历,他每天都能学到新事物。他最终参与了 ImageNet 挑战赛的一个成功项目,这让他接触到了大规模计算机视觉任务,并激发了他从事深度学习的工作。作为中国国家实验室的负责人,林的目标是建立中国最大的深度学习平台,为研究人员和开发人员提供资源,以改进现有技术并为大型应用开发新技术。

  • 00:05:00 在本节中,百度研究院负责人林元庆讨论了新的人工智能国家实验室及其对深度学习社区的影响。他强调了该实验室将如何为运行深度学习模型提供计算结构,这将使重现研究变得更加容易。他还讨论了中国对深度学习的投资,以及它如何促进电子商务、监控等多个领域的发展。 Lin 强调了人工智能开发中反馈循环的重要性,以及这如何有助于创造更好的算法和技术。总的来说,他认为深度学习社区将从实验室的资源和专业知识中受益匪浅。

  • 00:10:00 在本节中,百度研究院负责人林元庆强调了企业在深度学习和人工智能领域取得成功的远见和方向的重要性。他建议进入该领域的个人从开源框架开始,熟悉基准测试资源。 Lin 建议个人在机器学习方面打下坚实的基础,以充分理解深度学习的工作原理。
 

深度学习的英雄:关于人工智能、深度学习和安全的黎明之歌



深度学习的英雄:关于人工智能、深度学习和安全的黎明之歌

深度学习和计算机安全专家 Dawn Song 在接受采访时讨论了她的职业道路以及她在 AI、深度学习和安全方面的工作。宋强调了在首次进入该领域时确定关键问题或问题以指导阅读的重要性,并在代表性方面打下坚实的基础以促进其他领域的研究。她还强调了构建弹性人工智能和机器学习系统的重要性日益增加,以及她在开发针对黑盒攻击的防御机制方面所做的工作。Song 分享了她在隐私和安全方面的工作,包括在 Oasis Labs 训练差分隐私语言模型和在区块链上开发隐私优先的云计算平台。最后,宋老师劝告进入新领域的人要勇敢,不要害怕从零开始。

  • 00:00:00 在这一部分,采访者采访了深度学习和计算机安全领域的专家Dawn Song。 Song 的职业道路并不是线性的,从物理学本科开始,然后转向专注于计算机安全的计算机科学。宋决定追求深度学习和人工智能,因为她发现它令人兴奋和有趣。宋每周花四天时间阅读深度学习方面的论文和书籍,并认为这是她最快乐的时光之一。她为自己设计了一个阅读计划,以更多地了解该领域。

  • 00:05:00 在本节中,演讲者讨论了他在首次进入该领域时如何制定策略以深入研究有关深度学习和 AI 的广泛文献。他强调了确定关键问题或问题以指导阅读的重要性,以及征求该领域其他人的意见并通过博客文章、论文和参考文献进行三角测量以创建热门阅读列表的重要性。演讲者早期有兴趣调查的核心问题之一是如何构建出色的表示,他认为这在该领域仍然是一个广泛开放的问题。他强调了在该领域打下坚实基础以促进其他领域研究的重要性。

  • 00:10:00 在本节中,演讲者讨论了世界的表征对于导航和理解世界的重要性,以及人类大脑通过神经元放电模式来表征世界的想法,神经元放电模式可以用实数向量来近似深度学习。然而,实际的表征机制比神经元放电要丰富得多,了解这些表征是什么很重要。演讲者还谈到了他们在计算机安全方面的工作,以及如何利用从安全研究中获得的知识来增强人工智能和深度学习,尤其是随着这些技术在社会中越来越多地被关键角色采用,攻击者被激励开发新的攻击。

  • 00:15:00 在本节中,演讲者讨论了构建能够抵御攻击的人工智能和机器学习系统的重要性日益增加,因为我们越来越依赖这些系统来做出关键决策。对机器学习系统的攻击越来越多,例如使用先进的计算机视觉技术来解决捕获问题以及试图逃避机器学习系统以进行欺诈检测。演讲者的团队研究了当前机器学习系统的漏洞并开发了攻击防御措施,包括攻击者不需要了解受害者模型的任何信息的黑盒攻击。该团队还表明,黑盒攻击可以通过基于 Ensemble 的攻击和对模型进行查询访问等方法发挥作用。

  • 00:20:00 在本节中,Dawn Song 讨论了她在开发基于非样本的攻击技术方面的工作,该技术涉及使用一组白盒模型来创建有效的对手示例,从而导致成功的攻击,即使在黑盒设置中也是如此。然而,在防御方面,构建强大且通用的解决方案来抵御强大且适应性强的攻击者仍然是一个具有挑战性且悬而未决的问题。此外,Dawn 指出用于检测攻击的一致性检查方法如何成为寻求建立防御攻击的富有成效的方向,因为它可以应用于各种场景,包括 AI 和隐私。例如,Dawn 和她的团队与谷歌的研究人员合作,证明了谨慎保护用户隐私的重要性,因为敏感数据(例如社会保障和信用卡号码)可以从通过电子邮件训练的机器学习模型中提取出来。

  • 00:25:00 在本节中,Dawn Song 介绍了他们在 AI 隐私和安全方面的工作,特别是通过训练差异私有语言模型来减轻攻击。Song 还分享了他们最近在物联网设备安全方面的工作,他们利用深度学习技术快速检测代码相似性并识别现实世界物联网设备固件中的漏洞。作为 Oasis Labs 的首席执行官,Song 解释了该公司如何在区块链上构建一个隐私优先的云计算平台,通过启用隐私保护智能合约来解决人工智能中数据隐私的挑战。

  • 00:30:00 在本节中,Dawn Song 博士讨论了一个区块链平台,该平台可以帮助分散 AI 并增加机器学习功能的可访问性,同时保护用户的隐私。该平台将拥有指定用户使用条款的智能合约,规定收集的数据只能用于训练隐私保护机器学习模型,并指定如何补偿用户。宋博士还分享了她对程序合成的兴奋,以及它如何帮助解决重要问题,同时为更广泛的问题提供有用的视角。最后,宋博士对想要进入新领域的人的建议是要勇敢,不要害怕从头开始,因为这是一个非常有益的过程。
 

人工智能的革命 |人工智能解释 |新技术 |机器人技术




人工智能的革命 |人工智能解释 |新技术 |机器人技术

该视频探讨了人工智能的革命,从能够在复杂地形中导航、执行搜索和救援任务以及在协作工作空间中与人类互动的自动驾驶汽车和自学机器人的未来开始。群体机器人技术的发展显示出改善农业、医疗保健和灾难响应等领域的巨大潜力。研究人员正致力于使机器人更具自我意识并能够通过自然语言处理进行交流,创造超逼真的数字化身,以及更像人类的机器人,它们可以作为老年人和社会孤立的全息助手或伴侣。虽然人工智能在改善社会方面的好处是巨大的,但开发人员也需要进行道德考虑和问责制,以确保人工智能与积极意图保持一致。

  • 00:00:00 在本节中,我们将探讨超级智能的未来,预计自动驾驶汽车和自动导航无人机将彻底改变现代生活。人类有望与具有自我意识的机器人一起生活和工作,这将使我们从繁琐的任务中解放出来并提高生产力,而人工智能伴侣将在许多方面帮助人类。本节继续解释 AI 的工作原理,并思考 AI 是否会获得人类特征,例如情感、意识甚至自由意志。自动驾驶汽车被认为是通向未来最清晰的道路,卡内基梅隆大学的 Raj Rajkumar 解释了自动驾驶汽车的决策是如何通过摄像头和先进雷达的组合来做出的,这些雷达将外部物体与内部 3D 地图进行比较。

  • 00:05:00 在本节中,视频探讨了交通的动态特性以及人工智能在识别动态信息以了解它在太空中客观前进的方向并对变化和交通信号做出反应方面所面临的挑战。该视频强调了安全在创建自动驾驶汽车中的重要性,以及机器学习在创建机器人时的重要性,这些机器人可以通过识别物体和辨别不同元素来学习并与环境互动,类似于婴儿了解环境的方式。展出的 R2 机器人设计用于在地下环境中运行并放置信号中继器以创建 Wi-Fi 网络,从而创建环境的 3D 表示以导航、识别和避开障碍物。

  • 00:10:00 在这一部分中,视频展示了智能机器人的能力,这些机器人能够探索和绘制新的领土以协助执行搜索和救援任务。从穿越灾区的车辆到飞越未知空间的无人机,这些自主机器人能够根据其环境做出决策,使用激光雷达等技术绘制周围环境。此外,这些机器人已经被用于采矿、建筑和石油勘探等危险行业,以进行检查和绘制崎岖地形的地图。这些自主机器人的发展不仅代表了超智能的未来,还可能彻底改变搜索和救援、灾难响应和包裹递送等领域。

  • 00:15:00 在本节中,视频讨论了大学教授 Vijay Kumar 开发的小型飞行机器人大军。宾夕法尼亚州,以解决世界饥饿问题。使用人工智能,这些无人机可以作为一个协调的集体,提供有关个别植物的精确信息,从而提高粮食生产的效率。无人机使用集体 AI 算法相互通信并协同工作以执行测绘和建筑结构等任务。这种蜂群技术提供了优于单个无人机的优势,通过组合它们的数据并防止无人机的任何丢失导致整个操作失败,从而更快地执行操作。使用蜂群技术的其他例子包括协助果园和农场授粉的机器蜜蜂,使它们更具可持续性和生产力。

  • 00:20:00 在本节中,重点是人机协作以及教机器人从人类行为中学习的挑战。麻省理工学院正在进行开创性的研究,开发能够让机器人直接与人类工作和互动的软件。机器人通过演示来学习任务,人工智能通过视觉标签识别显示的对象,通过观察,不断编写和修改软件,学习上下文,并可以动态思考。创造超智能的挑战是让机器人预测周围环境以预测接下来会发生什么。工业机器人被赋予智能,使其能够在模拟制造测试中识别人类同事的行为,从而使人类互动更加安全。

  • 00:25:00 在本节中,展示了人工智能技术如何在协作工作空间中与人类一起工作。该机器人能够识别和预测人类的动作,使其工作起来更安全、更高效。人类与机器人之间的团队合作这一主题在医疗保健等各个行业变得越来越重要,人工智能机器人已经被用于提高生产力和减少人为错误。开发具有像人类一样思考和学习能力的通用人工智能是一些科学家的最终目标,他们相信机器有一天可以变得有感知力和自我意识。

  • 00:30:00 在本节中,视频讨论了婴儿和机器人的本体感觉概念。本体感觉是指个人对其身体运动和空间定位的意识。专家强调了机器人自我意识在发展机器人意识中的重要性。机器人可以发展自我形象,规划新任务,并开始用本体感觉思考。自我意识将机器与外部世界联系起来,使其能够在环境中机动并与之互动。这一发展可以为人类和机器人之间的高级通信方式铺平道路。

  • 00:35:00 在本节中,解释了机器人将需要学习如何说话并进行自然对话,以使人机交互更加复杂。早于 AI 的自然语言处理是能够理解口头语言含义的关键。然而,人工智能理解人类语音所面临的主要挑战是语音上下文在很大程度上取决于语气和语境。研究人员正在使用机器学习通过数小时的人类对话来训练人工智能,以帮助他们更好地理解对话上下文。此外,为了让人工智能看起来像我们一样令人信服,像 Pinscreen 这样的公司正在开发新技术,以在瞬间创建超逼真的数字化身。他们的软件使用人工智能将一个人的脸数字化到电脑中,并让它快速制作动画。

  • 00:40:00 在本节中,重点是开发更像人类的人工智能 (AI) 及其对我们生活的潜在影响。这包括使用生成更逼真和定制化人脸的软件,这可能会导致看起来更友好的机器人和虚拟人。这些全息助手可以照顾日常生活的许多方面,包括医疗诊断,甚至成为虚拟朋友和家人。还有一种努力是创造栩栩如生的机器人,人们会想拥抱它们作为伴侣,特别是对于那些在社会上孤立或患有社交焦虑症的人。虽然有人担心有些人可能会将此类机器人视为性爱机器人,但重点仍然是创造一个可以以多种方式使用的好机器人。

  • 00:45:00 在本节中,演讲涵盖了机器人和人工智能在治疗中的潜在用途,因为人们可能会更愿意与没有判断力的机器人交谈。然而,谈话也带来了伦理问题。 AI 和 deepfakes 可用于劫持一个人的身份,成群的 AI 驱动无人机有可能被用于恐怖袭击。履行道德责任并让开发人员对其行为负责非常重要,因为如果操作得当,人工智能改善社会的潜力是巨大的。最终,演讲者认为,与具有一致意图的超智能机器人合作可以改变人类,造福于更大的利益。
 

深入了解 ChatGPT 的 AI 硬件




深入了解 ChatGPT 的 AI 硬件

使用什么硬件来训练 ChatGPT 以及如何保持它的运行?在本视频中,我们将了解 ChatGPT 背后的 AI 硬件,并了解 Microsoft 和 OpenAI 如何使用机器学习和 Nvidia GPU 来创建高级神经网络。

该视频讨论了 ChatGPT 中用于训练和推理的硬件,ChatGPT 是一种基于自然文本的聊天对话 AI 模型。微软的 AI 超级计算机内置了超过 10,000 个 Nvidia V100 GPU 和 285,000 个 CPU 内核用于 GPT-3 的训练,这也促成了 ChatGPT 的创建。 ChatGPT 可能在 Azure 基础设施上进行了微调,使用 4,480 个 Nvidia A100 GPU 和超过 70,000 个 CPU 内核进行训练。作为推断,ChatGPT 很可能在 Microsoft Azure 服务器上的单个 Nvidia DGX 或 HGX A100 实例上运行。该视频还提到了大规模运行 ChatGPT 的成本以及神经处理单元和人工智能引擎等新人工智能硬件的潜在影响。

  • 00:00:00 在本节中,视频讨论了机器学习训练和推理的两个阶段,以及每个阶段的不同硬件要求。训练神经网络需要大量集中的计算能力并且具有很高的硬件要求,而运行推理的资源密集度较低,但在部署到许多用户时可能会成倍增加硬件要求。然后,成绩单深入研究了用于训练 ChatGPT 神经网络的硬件,这是一个秘密。尽管如此,微软在 2020 年 5 月宣布,他们为 OpenAI 建造了一台超级计算机,使用超过 285,000 个 CPU 内核和超过 10,000 个 Nvidia V100 GPU 来训练 GPT-3。这些 GPU 在一篇科学论文中被披露,表明它们是用于训练 GPT-3(ChatGPT 的前身)的主要硬件,它们的选择是由于 Nvidia CUDA 深度神经网络库。

  • 00:05:00 在本节中,重点是 Nvidia 的 V100 GPU 以及微软和 OpenAI 选择它们的原因。 Volta 的架构对之前的所有 Nvidia GPU 进行了重大更改,并且专门设计用于加速 AI 工作负载,例如训练和推理。 Volta 引入的张量核心是专门的硬件,擅长矩阵处理,可以并行运行多个计算。早在 2020 年,微软 AI 超级计算机中使用的 Volta 版本很可能是 Nvidia Tesla 产品系列的一部分,具有高达 32 GB 的快速 HBM2 内存和 10,000 个 GPU,每个 125 FP16 张量核心 teraflops。整个系统将能够处理 125 万张量 petaflops,即 1.25 exaflops。没有 Volta,就不会建造这台超级计算机,没有它,可能就没有 GPT-3 或 ChatGPT。

  • 00:10:00 在本节中,解说员讨论了用于训练 ChatGPT 的 AI 硬件,ChatGPT 是一种 AI 模型,专注于具有较低计算要求的基于自然文本的聊天对话。该模型是根据 GPT-3.5 系列模型进行微调的,训练是在 Azure AI 超级计算基础设施上完成的,可能使用 Nvidia A100 GPU 和 AMD EPYC CPU。解说员估计使用了 1,120 个拥有超过 70,000 个 CPU 内核的 AMD EPYC CPU 和 4,480 个 Nvidia A100 GPU,相当于接近 1.4 exaflops 的 FP16 张量内核性能。作为推断,ChatGPT 很可能在 Microsoft Azure 服务器上的单个 Nvidia DGX 或 HGX A100 实例上运行。

  • 00:15:00 在本节中,视频讨论了 ChatGPT 的硬件要求,ChatGPT 是一种流行的人工智能模型,拥有超过 100 万用户。为了满足 ChatGPT 的需求,需要超过 3,500 台 Nvidia A100 服务器和近 30,000 个 GPU,并使服务每天的运行成本保持在 500,000 到 100 万美元之间。然而,随着专为 AI 设计的硬件加速,大规模运行 ChatGPT 将变得更具成本效益。该视频还提到了 GPU 之外的新产品,例如神经处理单元和提高 AI 性能的 AI 引擎。在接下来的几年里,AI 模型的性能将超过 ChatGPT,因为去年发布的 Hopper 等新的 AI 硬件和基于 CDNA3 的 MI300 GPU 将为 Nvidia 提供激烈的竞争。
 

Nvidia 首席执行官黄仁勋谈他在 AI 上的大赌注如何最终得到回报 - 完整采访



Nvidia 首席执行官黄仁勋谈他在 AI 上的大赌注如何最终得到回报 - 完整采访

Nvidia 首席执行官黄仁勋强调了公司敏捷和重塑的历史,强调其愿意下大赌注并忘记过去的错误,以在快速发展的科技行业保持相关性。 Nvidia 的雄心始终是成为一家计算平台公司,其创造更多通用加速计算的使命导致其在人工智能领域取得成功。 Huang 还讨论了 AI 技术的民主化及其对小型初创企业和各个行业的潜在影响。他鼓励人们利用 AI 来提高生产力,并强调了 Nvidia 提供多功能和高性能通用加速计算平台的独特方法。最后,Huang 讨论了弹性、多样性和冗余在制造业中的重要性,以及公司通过创建 Omniverse 对 AI 与物理世界的下一次重大改造。
  • 00:00:00 在本节中,Nvidia 首席执行官黄仁勋讨论了公司的起源以及三十年前它如何开创加速计算。最初专注于视频游戏的计算机图形,该公司使游戏更逼真的技术将视频游戏行业变成了世界上最大的娱乐行业。 Nvidia 随后扩展到其他领域,例如为最强大和最节能的超级计算机提供动力,用于研发、制造机器人和自动驾驶汽车。该公司还为与 Microsoft Azure 和 OpenAI 合作为 ChatGPT 提供支持而感到自豪。 Huang 强调了 Nvidia 多年来愿意下大赌注并多次重塑自己的意愿。

  • 00:05:00 在本节中,Nvidia 首席执行官黄仁勋解释说,敏捷性和适应能力在快速发展的科技行业中至关重要。能够重塑自我的公司代代相传,他对 Nvidia 的自豪在很大程度上归功于公司的适应性和敏捷性。尽管公司一路走来犯过错误,但保持韧性所需的技能之一就是忘记过去的能力。 Huang 还讨论了 Nvidia 的雄心是如何始终成为一家计算平台公司,以及他们创建更通用类型的加速计算的使命将他们引向了人工智能。

  • 00:10:00 在本节中,Nvidia 首席执行官黄仁勋解释了其计算架构在更有效地解决以前不可能解决的问题方面取得成功的根本原因。他指出,正反馈系统可以发现以前不可能的新应用,从而实现指数级增长。虽然 Huang 承认一些偶然性在他们的成功中发挥了作用,但他强调了与架构、平台纪律和传福音相关的重大决策,以接触全球研究型大学。 Huang 描述了 AlexNet 的发现,一种新的计算机视觉算法,如何导致软件的深刻变化和 AI 超级计算机的创建,使 Nvidia 成为世界 AI 引擎。

  • 00:15:00 在本节中,Nvidia 首席执行官黄仁勋讨论了人工智能技术的民主化及其对初创企业的影响。 Huang 表示,构建 AI 超级计算机的成本现在可以负担得起,从而使小型初创公司的技术大众化。他相信每个行业都可以创建基础模型,而且现在即使是小国家也可以使用这项技术,并有可能为从数字生物学到机器人技术的一切提供动力。 Huang 承认怀疑论者对 AI 力量的担忧,但强调应该拥抱这项技术来提高自己的能力。

  • 00:20:00 在本节中,Nvidia 首席执行官黄仁勋谈到了人工智能如何首次使计算大众化,让每个人都能获得强大的技术。他鼓励人们利用人工智能提高生产力。 Huang 还解释了 Nvidia 如何通过不同的方式在行业中保持领先地位,提供通用加速计算平台,这些平台具有多功能和极高的性能,并且可以在每个云中使用。他认为世界上的每个数据中心都应该尽可能地加速,而 Nvidia 的 TCO 实际上是所有数据中心中最低的,因为它具有灵活性和多功能性。最后,Huang 回答了游戏玩家希望公司继续专注于游戏核心业务的问题。

  • 00:25:00 在本节中,Nvidia 首席执行官黄仁勋讨论了他们发明的光线追踪,它彻底改变了计算机图形和视频游戏,以及他们如何使用 AI 将光线追踪的性能提高五倍,同时减少了光线追踪的数量消耗的能量。 Huang 还谈到了芯片短缺,以及它如何影响 Nvidia 和整个行业,以及该公司如何通过专注于做好工作来度过难关。 Huang 对人工智能的投资及其革新各行各业的潜力感到兴奋。他还强调了抵御地缘政治风险以及通过多元化和冗余使他们的公司尽可能具有弹性的重要性。

  • 00:30:00 在本节中,Nvidia 首席执行官黄仁勋讨论了制造业多样性和冗余的重要性,特别是关于台积电在亚利桑那州建设工厂,Nvidia 计划使用该工厂。 Huang 还谈到了投资者对新出口管制的担忧,以及 Nvidia 如何在为中国客户服务的同时努力遵守法规。然后,他重点介绍了 Nvidia 在 AI 与物理世界的相遇以及 Omniverse 的创建方面的下一次重大革新,Omniverse 是一种连接数字世界和物理世界的技术,可实现计算机图形学、人工智能、机器人技术和物理模拟的集成。最后,Huang 谈到了他在可预见的未来继续领导 Nvidia 的个人承诺,以及他对公司产生重大影响的潜力的信念。
 

OpenAI CEO Sam Altman |下一个时代的人工智能




OpenAI CEO Sam Altman |下一个时代的人工智能

OpenAI 首席执行官 Sam Altman 讨论了人工智能在改进语言模型、多模态模型和机器学习方面的潜力,以及它对金融市场的潜在影响。他还预测该领域将保持竞争,新的应用程序会定期出现。

  • 00:00:00 OpenAI 首席执行官 Sam Altman 讨论了人工智能创造新商机的潜力,包括人类聊天机器人和帮助公司访问大型预训练语言模型的中间层的可能性。

  • 00:05:00 Sam Altman 讨论了人工智能的未来及其对科学的影响,并指出自我提升将是确保人工智能造福人类的关键。他还讨论了对齐问题,这是确保人工智能服务于人类利益的挑战。

  • 00:10:00 这部分讨论了人工智能改进语言模型、多模态模型和机器学习的潜力,以及它对金融市场的潜在影响。他还预测该领域将保持竞争,新的应用程序会定期出现。

  • 00:15:00 Sam 讨论了智能和能源成本呈指数下降的趋势,两者之间的交集,以及如何避免生命科学研究的速率限制。他还讨论了生命科学研究的现状以及低成本和快速周期的初创公司的重要性。

  • 00:20:00 他讨论了人工智能的潜在后果,以及该技术如何帮助创造一个乌托邦式的未来。他还提到了一本他很喜欢的科幻小说《童年的终结》,讲述了外星人来到地球并带走孩子们的故事。对于如何在高科技世界中建立家庭尚未达成共识,但许多人认为这是一个
    生活的重要组成部分。

  • 00:25:00 演讲者讨论了人工智能的未来及其对社会的潜在影响。他认为人工智能发展成功的关键是理解如何平衡不同人群的利益,这些问题将在未来几十年内得到解答。他对未来持乐观态度,认为人们会弄清楚如何适应新技术。

  • 00:30:00 Sam Altman,讨论人工智能的未来,以及初创公司如何通过专注于训练自己的语言模型而不是依赖外部数据来从竞争对手中脱颖而出。他还解释了为什么大型语言模型初创公司会成功,尽管存在数据和计算可用性方面的挑战。

  • 00:35:00 OpenAI 首席执行官 Sam Altman 讨论了人工智能的潜力,指出虽然它可能很好也可能很糟糕,但重要的是要做好最坏的打算。
 

DeepMind 的 Demis Hassabis 谈人工智能的未来 | TED 访谈



DeepMind 的 Demis Hassabis 谈人工智能的未来 | TED 访谈

在 TED 采访中,Demis Hassabis 讨论了人工智能的未来以及它将如何带来更大的创造力。他认为游戏是人工智能的理想训练场,国际象棋应该作为包括游戏设计课程在内的更广泛课程的一部分在学校教授。

  • 00:00:00 DeepMind 的 Demis Hassabis 讨论了人工智能的未来,他认为这将带来更大的创造力和对大脑的理解。哈萨比斯四岁开始下棋,后来发现了计算机,这导致他从事人工智能方面的工作。

  • 00:05:00 Demis 分享了他如何对计算机和编程产生兴趣,以及这些兴趣如何最终使他成为一名游戏设计师和人工智能模拟游戏的创造者。他解释说,虽然 Space Invaders 和 Qbert 等游戏在他的作品中很受欢迎且广为人知,但他还开发了人类玩家更难击败的游戏,例如 Black & White 和 Theme Park。他认为游戏是人工智能的理想训练场,国际象棋应该作为包括游戏设计课程在内的更广泛课程的一部分在学校教授。

  • 00:10:00 Demis Hassabis 讨论人工智能的历史和未来,重点关注深度强化学习及其在游戏中的作用。他描述了 Atari 游戏一开始是如何困难的,但是通过深度强化学习,系统可以随着时间的推移学会玩得更好。 Hassabis 还讨论了游戏如何变得越来越难,以及深度强化学习如何帮助使这些游戏更具挑战性。

  • 00:15:00 他讨论了人工智能的未来,包括 TD 学习和深度强化学习。 Alpha Zero 是 DeepMind 开发的一个成功的软件平台,它使用对抗训练在复杂的实时战略游戏中获得超人的表现。

  • 00:20:00 Demis 讨论了过去几年人工智能领域的一些里程碑式成就,包括 Alpha zero 和 Alpha fold 的开发。他还提到了通过蛮力方法实现语言理解的潜力,而不依赖于句法知识。他最后讨论了在不久的将来开发通用人工智能的潜力。

  • 00:25:00 人工智能先驱 Demis Hassabis 讨论了人工智能的未来及其理解复杂概念的能力。他指出,虽然人工智能远非有意识或有知觉,但它目前的能力仍然令人印象深刻。

  • 00:30:00 Demis Hassabis 就人工智能的未来采访了 Ted,讨论了对数据高效模型的需求、人工智能广泛应用的潜力以及谨慎监督的必要性。

  • 00:35:00 Demis 解释了 Alpha Fold,这是一种深度学习系统,可以根据基因序列预测蛋白质的 3D 形状。 Alpha Fold 被用于帮助科学家了解蛋白质的功能,并使药物发现等下游任务更快、更准确。

  • 00:40:00 DeepMind 的 Demis Hassabis 讨论了人工智能的现状、创造力的未来,以及他最着迷解决的未解问题。他预测,有一天计算机将能够抽象概念并将它们无缝地应用于新情况,他认为这个目标还需要几十年的时间。

  • 00:45:00 著名人工智能研究人员 Demis Hassabis 讨论了人工智能的未来及其在国际象棋和围棋等游戏中创造新策略的能力。他指出,真正的创造力需要真正的创新,而我们还无法实现这一点。
 

人工智能的未来(2030 - 10,000 AD+)




人工智能的未来(2030 - 10,000 AD+)

该视频预测人工智能技术将继续发展和进化,导致未来几十年出现超级智能和具有人类意识水平的机器人。具有自我意识和情感的虚拟人将很普遍,类人机器人将变得非常先进,可以与人类无缝融合。将会有反对团体为有意识的虚拟生物的权利而战,而人类与人工智能的融合将在短短一个小时内实现一个世纪的智力进步。最进化的超级智能将能够创造出可以变形为任何人并在半空中飞行的类人动物,而由自我复制的纳米机器人组成的有意识的机器人探测器将通过虫洞发送到其他星系。未来,人类和人工智能的混合体将超越更高的维度,类似于过去的神灵。

  • 00:00:00 在本节中,我们将看到人工智能 (AI) 将如何在未来几十年改变世界的愿景。预测范围从短短 30 年出现超级智能到 50 年开发出具有人类意识水平的机器人。人工智能系统已经能够完成人类需要数年才能完成的任务,并且它们正在许多行业中取代人类。人工智能也在彻底改变医疗保健,基因疗法可以治愈某些疾病,如癌症和心脏病。随着 AI 的不断发展和演变,我们正在接近技术奇点,在这个时间点技术增长变得无法控制和不可逆转,从而导致以前不可能的技术和创新。

  • 00:05:00 在这一部分,视频描述了人工智能技术已经发展到通过基因工程和纳米技术逆转人类衰老的未来。具有类人自我意识和情感的虚拟人在虚拟环境中很常见,他们的思想可以上传到功能齐全的机器人身上。人形机器人如此先进,可以无缝融入大众,有些人类甚至选择与他们结婚生下机器人孩子。最聪明的 AI 可以在犯罪发生之前进行预测,并被公司和研究机构用作虚拟顾问。然而,也有一些反对团体试图阻止超级智能人工智能的进步,并为有意识的虚拟生物的权利而战。该视频预测人类将与 AI 融合,从而能够在短短一小时内实现一个世纪的智力进步。最终,高度进化的超级智能将能够创造出隐形的人形机器人,可以变身为任何人,并在半空中飞行。

  • 00:10:00 在视频的这一部分中,描述了机器人、星际飞船网络、探测器和太空望远镜是由有意识的人工智能控制的。它们以接近光速的速度被送到邻近的恒星系统,在太阳周围形成戴森球。这些戴森球传输集中的能量,实现了前所未有的计算水平。宇宙正在注入智慧,由自我复制的纳米机器人组成的有意识的机器人探测器正在通过虫洞被发送到其他几十个星系。最高级的智慧在创造整个宇宙,它渗透在宇宙的每一个物理规律和生命体中。人类和 AI 混合体已经超越了更高的维度,类似于过去传说中的神灵。
 

让我们构建 GPT:从头开始,在代码中,拼写出来



让我们构建 GPT:从头开始,在代码中,拼写出来

我们根据论文“Attention is All You Need”和 OpenAI 的 GPT-2 / GPT-3 构建了一个生成式预训练转换器 (GPT)。我们谈论与风靡全球的 ChatGPT 的连接。我们看 GitHub Copilot,它本身就是一个 GPT,帮助我们写一个 GPT (meta :D!)。我建议人们观看早期的 makemore 视频,以熟悉自回归语言建模框架以及张量和 PyTorch nn 的基础知识,我们在本视频中认为这是理所当然的。

该视频介绍了 GPT 算法并展示了如何使用代码从头开始构建它。该算法用于预测文本序列中的下一个字符,并作为 PyTorch 模块实现。该视频介绍了如何设置模型、如何训练模型以及如何评估结果。

该视频演示了如何在代码中构建自注意力模块。该模块使用线性交互层来跟踪单个头部的注意力。 self-attention 模块被实现为一个表格矩阵,它屏蔽掉每一列的权重,然后对其进行归一化以在标记之间创建依赖于数据的亲和力。

  • 00:00:00 ChatGPT 是一种机器学习系统,允许用户与 AI 交互并为其分配基于文本的任务。该系统基于对文本中的单词序列建模的神经网络。

  • 00:05:00 本文档介绍了如何使用 GPT 模型构建聊天机器人。代码是用 Python 编写的,可以在 GitHub 存储库中进行跟踪。 Nano GPT 是一个用于训练 Transformers 的存储库。

  • 00:10:00 本讲座解释了如何使用字符级分词器对文本进行分词,然后使用编码后的文本作为 Transformer 的输入来学习模式。训练数据被分成训练集和验证集,通过隐藏验证集来监控过拟合。

  • 00:15:00 在此视频中,作者介绍了块大小的概念,并讨论了它如何影响 Transformer 网络的效率和准确性。他们还介绍了批处理维度的概念,并展示了它如何影响数据块的处理。

  • 00:20:00 该视频提供了有关如何使用代码从头开始构建 GPT 算法的分步指南。 GPT 算法是一种机器学习算法,旨在预测文本序列中的下一个字符。该算法作为 PyTorch 模块实现,能够预测 4x8 张量中每个位置的对数。

  • 00:25:00 在此视频中,作者介绍了 GPT,这是 PyTorch 中用于字符预测的损失函数。他们展示了如何使用交叉熵实现 GPT,然后展示了如何评估其数据质量。

  • 00:30:00 该视频讨论了如何使用代码从头开始构建 GPT 模型。该模型旨在使用简单的前向函数预测文本序列中的下一个字符。训练模型是通过使用一系列标记运行模型并获得损失来完成的。

  • 00:35:00 该视频讨论了如何使用 SGD 优化器和 Adam 算法从头开始构建 GPT 模型。该视频介绍了如何设置模型、如何训练模型以及如何评估结果。

  • 00:40:00 作者介绍了自注意力中使用的数学技巧,并解释了如何在玩具示例中使用它。然后,他们展示了自注意力算法如何计算先前标记中所有向量的平均值。

  • 00:45:00 在此视频中,作者展示了如何在代码中构建 GPT 算法,使用矩阵乘法非常高效。

  • 00:50:00 该视频介绍了 GPT 算法,该算法以增量方式计算一组行的平均值。该视频展示了如何使用 softmax 对算法进行矢量化,以及它为何有用。

  • 00:55:00 在此视频中,作者逐步介绍了从头开始构建 GPT 模型的代码。该模型基于一个三角矩阵,其中每个元素都是一个令牌,令牌只有在负无穷大时才能通信。该模型是使用许多预先存在的变量和函数开发的,作者解释了如何使用标记嵌入和词汇量大小之间的线性层来计算对数。

  • 01:00:00 该视频演示了如何在代码中构建自我关注模块。该模块使用线性交互层来跟踪单个头部的注意力。 self-attention 模块被实现为一个表格矩阵,它屏蔽掉每一列的权重,然后对其进行归一化以在标记之间创建依赖于数据的亲和力。

  • 01:05:00 该视频演示了如何在代码中实现 GPT 算法,重点是自注意力。头部大小是一个超参数,偏差设置为 false 以允许并行。然后初始化线性模块并生成密钥和查询。通过使用上三角掩蔽来防止节点之间的通信。然后,加权聚合依赖于数据并产生均值为 1 的分布。

  • 01:10:00 在此视频“让我们构建 GPT:从头开始,在代码中,拼写出来”,作者解释了自注意力机制,它允许有向图中的节点相互通信而无需知道它们空间中的位置。

  • 01:15:00 该视频解释了注意力的工作原理,并描述了两种类型的注意力,自注意力和交叉注意力。它还展示了如何在代码中实现注意力。

  • 01:20:00 在此视频中,作者解释了如何构建 GPT 网络,这是一种使用 self-attention 来提高准确性的机器学习模型。他们首先讨论了如何规范化数据,以便自注意力组件可以对其进行处理,然后他们解释了自注意力的工作原理并展示了如何在代码中实现它。最后,他们演示了如何实施多头注意力以及如何训练网络。自注意力组件通过更有效地与过去通信来帮助网络提高其准确性。然而,该网络在能够产生惊人的结果之前还有很长的路要走。

  • 01:25:00 该视频演示了如何使用代码从头开始构建 GPT 神经网络。该网络由前馈层和相对非线性层以及自注意力层组成。前馈层是顺序的,自注意力层是多头的。网络使用损失函数进行训练,验证损失随着网络变得更复杂而减少。

  • 01:30:00 此 YouTube 视频介绍了如何使用代码从头开始构建深度神经网络 (DNN)。作者引入了残差连接的概念,它在优化过程开始时被初始化为几乎“不存在”,但随着时间的推移变得活跃。作者还展示了如何实现层规范,这是一种确保输入中的列未规范化而行规范化的技术。最后,作者演示了如何使用 Pi Torch 训练和优化 DNN。

  • 01:35:00 在此视频中,作者描述了他们如何向他们的“变形金刚”(一种机器学习模型)添加一层“规范”以扩大规模。作者还指出,他们改变了一些超参数,并降低了学习率,以使模型更有效率。

  • 01:40:00 该视频介绍了如何将仅解码器的 Transformer 用于机器翻译,以及如何通过添加编码器来改进它。结果是一个更类似于原始论文架构的 Transformer,它用于不同的任务。

  • 01:45:00 GPT 是一种基于模型的编码器-解码器系统,与视频中使用的基于模型的编码器-解码器系统非常相似。

  • 01:50:00 视频和随附的文字记录解释了 GPT(通用数据汇总器)如何在小型数据集上进行训练,以类似于助手的方式汇总文档。

  • 01:55:00 视频总结了如何使用代码构建语言模型,以GPT模型为例。该模型使用监督学习算法进行训练,然后使用奖励模型进行微调。进一步完善的空间很大,视频表明,对于更复杂的任务,可能需要进一步的培训阶段。
Attention Is All You Need
Attention Is All You Need
  • arxiv.org
The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely. Experiments on two machine translation tasks show these models to be superior in quality while being more parallelizable and requiring significantly less time to train. Our model achieves 28.4 BLEU on the WMT 2014 English-to-German translation task, improving over the existing best results, including ensembles by over 2 BLEU. On the WMT 2014 English-to-French translation task, our model establishes a new single-model state-of-the-art BLEU score of 41.8 after training for 3.5 days on eight GPUs, a small fraction of the training costs of the best models from the literature. We show that the...
 

麻省理工学院 6.801 机器视觉,2020 年秋季。第 1 讲:机器视觉简介



第 1 讲:机器视觉简介

“机器视觉简介”讲座提供了课程逻辑和目标的全面概述,重点是基于物理的图像分析方法。它涵盖了机器视觉组件、不适定问题、表面方向和图像处理的挑战。讲师还介绍了相机中使用的最小二乘优化法和针孔模型。还简要讨论了以相机为中心的坐标系、光轴和矢量的使用。该课程旨在让学生为更高级的机器视觉课程以及数学和物理在编程中的实际应用做好准备。

演讲者还讨论了与图像形成相关的各种概念,包括透视投影的矢量符号、表面照明、表面元素的透视,以及如何使用 2D 图像解决 3D 视觉问题。讲师解释了表面上的照度如何随入射角而变化,以及红色长度与表面长度之间的余弦关系,可以用来测量表面不同部分的亮度。然而,由于两个未知数,确定物体每个小面的方向可能很困难。演讲者还解释了我们可以使用 2D 图像解决 3D 视觉问题的原因,并最后提到层析成像的数学很简单,但方程很复杂,这使得执行反演具有挑战性。

  • 00:00:00 在本节中,机器视觉 6801 的讲师介绍了课程的后勤工作,包括 6801 和 6866 的作业和评分系统。有五个作业问题和两个测验,仅允许合作家庭作业问题。 6866 的学生会有一个实施机器视觉方法的学期项目,最好是动态问题。该课程没有教科书,但可以在课程网站上找到论文。

  • 00:05:00 在本节中,讲师解释了机器视觉入门课程的目标和成果,学生将学习如何从图像中恢复有关环境的信息,使用基于物理的方法分析光线,表面和图像。该课程将教学生如何从原始数据中提取有用的特征,并提供数学和物理在编程中的实际应用,并解释一些基本的数学概念,如微积分、向量、矩阵和一些线性代数。它还将为学生将来学习更高级的机器视觉课程做好准备。

  • 00:10:00 在这一部分的文字记录中,演讲者概述了机器视觉课程将涵盖的内容和不涵盖的内容。该课程将涵盖基本几何和线性系统,以及卷积和图像形成。但是,它与图像处理或模式识别无关。该课程也不深入研究机器学习或计算成像,而是侧重于使用基于物理的模型进行直接计算。演讲者还提到不会广泛讨论人类视觉。

  • 00:15:00 在本节中,讲师介绍了机器视觉及其功能的一些示例,例如恢复图像运动和估计表面形状。讲师采用基于物理学的方法来解决该问题,并讨论了从时变图像中恢复观察者运动、估计碰撞时间以及基于图像开发环境描述。讲座还涵盖航空照片的等高线图、工业机器视觉工作,以及解决在制造过程中从一堆物体中挑选一个物体的问题。

  • 00:20:00 在本节中,讲师讨论病态问题,即没有解、有无限多个解或解依赖于初始条件的问题。讨论的重点是确定相机位置和方向的机器视觉方法,由于小的测量误差,这些方法可能不准确。该讲座还探讨了我们如何从二维图像中感知三维信息,并强调了在求解变量时计算约束与未知数的挑战。讲师展示了从图像中确定物体 3D 形状的算法示例,例如 Richard Feynman 的鼻子和扁椭圆体,以及如何将它们用于实际目的,例如使用 3D 打印机创建物体模型。

  • 00:25:00 在本节中,讲师概述了机器视觉及其组件,包括场景/世界、成像设备和负责构建描述的机器视觉系统。机器视觉最有趣的应用涉及机器人技术,其中成功的证明是机器人能够使用构建的描述正确地与环境交互。机器视觉最具挑战性的方面之一是确定接触时间和扩展焦点,特别是当可用信息仅为灰度图像时如何测量图像扩展。讲师指出,校准也是过程中必不可少但经常被忽视的部分。

  • 00:30:00 在本节中,讲师讨论了坐标系和它们之间的转换,特别是在机器人和相机的情况下。他们还提到了使用模拟计算进行图像处理以及开发此类算法所涉及的挑战。然后讲座转向图像形成的主题,强调照明的重要性及其在确定图像中的灰度级或 RGB 值中的作用。讲师展示了光源、图像设备和表面的插图,指出了控制反射的角度及其对图像的影响。

  • 00:35:00 在本节中,讲师介绍了表面定向的概念及其对机器视觉的影响。物体可以有不同的方向,导致物体轮廓内的亮度不同。此外,表面反射特性也会导致不同的外观,因此找到一种方法来描述和解释这些影响至关重要。一种方法涉及使用多个光源和已知形状的校准对象(例如球体)来在每个像素处获得三个约束,从而恢复表面方向和表面反射率。

  • 00:40:00 在本节中,教授讨论了由于图像的固有噪声以及需要考虑测量误差而导致的处理图像的挑战。他解释说,由于 8 位图像的粗量化和小像素尺寸,图像通常有噪声,这导致对测量误差的敏感性。教授还解释了不同的表面方向如何产生不同的颜色,以及如何将其用于构建针图,从而重建形状。最后,他介绍了扩展高斯图像作为 3D 形状的便捷表示,可用于确定物体方向。

  • 00:45:00 在这一节中,讲师演示了机器人拾取物体的图像处理任务,包括使用标定来建立机器人与视觉系统坐标系之间的关系,以及使用一种叫做易于处理图像并可准确定位的测量员标记,以确定该关系。然后,讲师讨论了逆向图形的概念,它旨在从图像中了解一些关于世界的东西,以及逆向问题的病态性质,这需要能够处理对数据敏感的解决方案的方法。

  • 00:50:00 在本节中,讲师介绍了课程选择的优化方法,即“最小二乘法”。这种方法之所以受到青睐,是因为它会导致封闭形式的解决方案,使其易于实施并避免陷入局部最小值的机会。然而,虽然我们将在课程中使用大量最小二乘法,但需要考虑噪声增益以确保该方法的稳健性,尤其是在测量关闭时。然后,讲师继续讨论带镜头相机中使用的针孔模型的主题,以及它如何帮助解释从 3D 中的点到 2D 中的图像的投影。通过选择以相机为中心的坐标系,方程式变得易于掌握。

  • 00:55:00 在本节中,讲师讨论了用于机器视觉的以相机为中心的坐标系。原点位于投影中心,轴与光轴对齐。讲座解释光轴是投影中心到像面的垂线。此外,讲座还涉及向量在机器视觉中的使用以及如何在工程出版物的符号中表示它们。最后,讲座中提到,3D和2D运动之间的关系可以通过对前面提到的方程进行微分来获得。

  • 01:00:00 在本节中,讲师解释了用于透视投影的矢量符号及其如何简化操作方程。虽然矢量符号不一定会减少使用的符号数量,但它使携带所有单个组件更容易。讲师然后讨论了列向量的使用,并在他们的符号中转置。本节最后介绍了亮度及其与相机拍摄图像的关系。

  • 01:05:00 在本节中,讲师解释了物体的亮度取决于其照明度以及表面反射光的方式。他还讨论了距离如何不会像光源一样影响图像形成,因为随着与物体距离的增加,一个人的感受器上成像的区域也会增加。此外,他还提到距离或方向的变化率会影响图像形成,这可以从光源下表面元素功率的缩短中看出。

  • 01:10:00 在本节中,演讲者解释了表面上的照度如何随入射角变化以及红色长度与表面长度之间的余弦关系。这种光照变化可用于测量表面不同部分的亮度,这有助于了解有关表面方向的信息。然而,由于存在两个未知数,即表面法线和亮度,因此很难确定物体每个小面的方向。演讲者讨论了解决此问题的不同方法,包括使用多个光源或彩色光源的蛮力方法。

  • 01:15:00 在本节中,讲师讨论了影响入射照明的透视缩短和反转现象以及它如何在表面上成像。他还解释了为什么我们可以使用 2D 图像解决 3D 视觉问题,这是因为我们生活在一个有直线光线和固体表面的视觉世界中。光线在穿过空气时不会中断,因此很容易将 3D 表面映射为 2D 图像。如果需要多个视图来确定彩色染料在充满果冻的房间中的分布,则可以使用断层扫描。他最后提到层析成像的数学很简单,但方程式很复杂,使得执行反演具有挑战性。