LearnerForever LearnerForever
永远是你们的小吧,也希望吧友们开心快乐每一天。
关注数: 1,483 粉丝数: 2,228 发帖数: 25,769 关注贴吧数: 58
2024 年值得关注的 6 大生成式 AI 趋势 2023年是人工智能领域长期以来最具颠覆性的一年,大量生成式人工智能产品进入主流。继续其变革之旅,生成式人工智能有望在2024年从兴奋的话题转变为现实世界的应用。 随着科技公司不断开发和微调人工智能模型,生成式人工智能领域正在迅速发展,催生了一系列广泛的趋势,这些趋势将促进人工智能在各行各业的采用及其在我们日常生活中的存在。让我们深入研究顶级生成式人工智能趋势,这些趋势将决定生成式人工智能的真正价值。1. 小语言模型 在 ChatGPT 取得巨大成功之后,我们看到许多公司在2023年发布了大型语言模型。然而,现在是时候为小语言模型 (SLM) 的激增做好准备了。法学硕士接受过从各种公共在线资源中废弃的大量数据集的培训,并且能够执行需要人类智能的复杂任务,从编写编程代码和逻辑推理到回答几乎所有可以想象的主题的查询。 然而,处理如此庞大的具有数万亿参数的人工智能模型需要大量的计算资源和财务投资。 相比之下,小语言模型是根据特定任务的有限数据进行训练的,并且更具成本效益。SLM 的参数较少,占用的存储空间也较少,因此适合在计算能力较低的较便宜的硬件上运行。当使用从教科书、新闻网站和杂志等可信来源提取的高质量训练数据进行训练时,该模型可以提供出色的性能。这将促进这些模型的采用。 迄今为止,一些流行的 SLM 包括 Meta 的 Llama-2、微软的PHI-2和 Mistral7B。 2. 人工智能生成 目前人工智能的水平还不能与人类智能相提并论。人工智能公司渴望开发一种能够匹配或超越人类理解和认知能力的模型,这一突破被认为是通用人工智能(AGI)。 AGI模型不局限于特定领域,无需人工干预即可解决人类认知层面的各种问题。它可以独立学习并解决不熟悉的问题,无需额外培训。简而言之,AGI 是完整人工智能的概念,反映了人类理解和解决复杂任务的广泛认知能力。 相比之下,现有模型依赖于大量训练来理解和解决同一领域内的相关问题。例如,预先训练的大型语言模型 (LLM) 必须输入金融数据集才能做出与投资相关的决策。 AGI 的概念是,机器可以跨领域执行具有人类认知水平的复杂任务,而无需了解这些任务的背景知识。 3. 多模态人工智能模型(聊天机器人) 生成式人工智能模型通过集成多模式多功能性超越了文本创建。多模态人工智能将在2024年取得进展,并为生成式人工智能领域带来重大变化。 多模态人工智能模型经过训练,可以通过先进的算法学习和处理多种形式的数据,例如文本、照片甚至声音和视频,以便根据提示生成不同类型的内容,例如文本、图像、声音和视频。 训练数据集(包括文本、图像、视频和音频)的组合可以训练系统学习不同类型媒体之间的关系,并使它们能够识别一种媒体并对另一种媒体做出响应。例如,如果您输入图像,模型将生成文本作为响应,反之亦然。 向人工智能模型的过渡将使该技术更加直观和动态。Gemini、GPT4-V、Gen-2、ImageBind 等因其多模态功能而深受用户欢迎。 4. 代理人工智能 虽然到目前为止我们已经能够与人工智能聊天,但到今年,我们将看到聊天机器人作为代理运行。科技公司正在努力将人工智能模型转变为自主软件程序,旨在无需直接人工干预即可实现特定目标。 这些自主代理是使用先进的算法和机器学习技术设计的。此类智能体的开发本质上需要集成不同技术的多模态人工智能,包括机器学习、计算机视觉、自然语言处理等。 这些代理旨在使用数据来学习模式、设定新目标,并在没有或很少人为干预的情况下实现这些目标。他们可以通过同时分析不同的数据类型并考虑当前环境来有效地预测、采取行动和交互。 例如,可以训练金融人工智能代理收集市场数据、分析模式并根据不断变化的市场条件实时调整其投资策略。 5.人工智能治理 2024年将是人工智能监管的分水岭,重塑生成式人工智能策略的发展和道德风险,以实现安全可靠的人工智能应用。 随着生成式人工智能迅速进入主流,企业很高兴利用它来推动创新并发现各个行业和应用程序的新机会。然而,整合这项尖端技术并非没有挑战。人工智能的快速发展让监管机构争先恐后地跟上该技术的步伐。 尽管有可能产生或预测期望的结果,但生成式人工智能引起了人们对幻觉、错误信息传播、深度伪造等的担忧。此外,这些模型容易遭受注射、中毒、敏感私人信息泄露、侵犯版权、偏见和种族主义内容的产生强调了全球范围内迅速采取监管反应的必要性。 监管机构需要塑造人工智能治理的未来,促进创新,并确保制定护栏来保护多元化劳动力的权利和就业机会。随着人工智能融入许多行业,行业领导者、政府、学术研究人员和民间社会的联盟对于创建一个成功的人工智能治理监管框架是必要的。 6.定制企业生成AI模型 像ChatGPT vs Bard和 Midjourney这样的大规模大型语言和图像模型已经席卷了世界。然而,对于商业用例,小型、定制的企业生成人工智能模型正在兴起。这些模型是通过集成专有数据来设计的,以满足利基市场和用户需求,并确保更准确和相关的响应。定制企业人工智能应用的发展表明,企业正在转向更高效、个性化的人工智能驱动的业务解决方案。 企业生成式人工智能可以根据各种业务需求进行定制,包括客户支持、文档审查,甚至供应链管理。这些模型对于术语和实践高度专业化的金融、法律和医疗保健领域特别有用。将定制模型集成到其运营中的组织可以更好地控制其数据,从而提高隐私和安全级别。 鉴于生成式人工智能模型带来的隐私和安全风险,严格的人工智能法规可能会推动企业在未来几年过渡到使用专有模型。 2024年,生成式人工智能的格局将继续快速发展,出现一系列新趋势,给消费者和企业带来新的挑战。生成式人工智能具有巨大的潜力,其影响才刚刚开始。
人工智能将成传统电脑升级的“下一步棋”? 全球传统电脑市场持续低迷。国际数据公司数据显示,2023年第四季度,全球传统电脑出货量与去年同期相比减少2.7%。  近日,国际数据公司(IDC)发布消息称,2023年第四季度,全球传统电脑出货量接近6710万台,与2022年同期相比减少2.7%。尽管略高于预期,但全球电脑市场出货量已经连续8个季度同比下滑。全球传统电脑市场为何持续低迷?传统电脑行业是否进入了瓶颈期?未来电脑的发展方向将会怎样?   传统电脑市场持续低迷   自1946年全球第一台通用计算机ENIAC诞生至今,计算机已经有了78年的发展史。在互联网的快速普及下,计算机已经与人们的工作生活高度融合,给几乎所有领域的发展带来了巨大改变。然而,由于受到需求端和供给端的“双向挤压”,当前传统电脑市场已经陷入持续低迷。   第一,需求端扩张力不足。导致传统电脑有效需求不足的原因是多方面的,概括起来可以总结为消费和产品两方面。从消费方面来看,目前移动办公和智能办公日益成为主要办公模式,这导致消费者对于购买传统电脑产品采取了比较保守的消费策略。从产品方面来看,伴随技术的不断进步,电脑的耐用程度不断提高、性能持续优化,电脑设备维护便捷性持续提升,电脑的实际使用寿命延长,用户的换新意愿普遍不强。   第二,供给端创新力不强。计算机制造业发展至今,产业链比较稳固、产品高度成熟。这固然有利于保证电脑质量,但也导致整个行业陷入了创新相对停滞的状态,软硬件升级逐步放缓,电脑在功能上难有新的突破。虽然国内外计算机厂商纷纷尝试研发新产品新技术,探索新模式新领域,但这只能实现一些“挤牙膏式”的创新。总体来看,电脑产品同质化程度不断增加,颠覆性发现和突破性进展严重缺乏。与此同时,电脑替代品的竞争力不断提升。随着智能手机和平板电脑的创新发展、快速迭代,除了一些对专业性要求高的功能,电脑越来越多的功能正逐渐被手机或平板替代,必需应用电脑的场景正不断减少。   AI电脑有望成破局关键   在智能手机的普及、创新水平的放缓、产品耐用性的提升等多个因素共同推动下,传统电脑产业进入战略选择的岔路口。需要说明的是,尽管传统电脑市场增长乏力,但是,电脑在当前及未来很长一段时间内仍会在人类工作生活中扮演重要角色,大量用户仍有着使用需要。基于此笔者认为,传统电脑的销量或将继续下降,但不会被淘汰。人工智能电脑有望成为电脑头部企业、数字科技厂商的破局方向。   由于生成式人工智能技术的快速发展,与人工智能融合日益成为众多传统产业的发展趋势,传统电脑产业也不例外。人工智能电脑是人工智能技术与传统电脑融合形成的新产品,有望开启传统电脑行业的增长新空间。目前,联想、戴尔、苹果、华为等头部企业纷纷加码人工智能电脑赛道,投入大量资源,多方位推进产品布局,部分企业已经展示了初步产品,预计未来几年将陆续有更多产品涌现。   与传统电脑相比,人工智能电脑将带来一些全新的、革命性的体验。   首先,它将带来更强大的计算能力。传统电脑虽然已经具备较强的计算能力,搭载人工智能技术的人工智能电脑将具备更高效的计算方式。其处理复杂任务的能力将显著增强,可满足高计算需求用户的需要。   其次,它将带来更便捷的使用体验。传统电脑主要通过键盘和鼠标来实现人机交互,而人工智能电脑将在传统电脑中嵌入大量人工智能算法模型,这将改变传统电脑的底层架构。用户可以通过语音、手势等指令让电脑完成工作,电脑在操作和交互方式上有望发生质的飞跃。   再次,它将带来更丰富的应用场景。人工智能电脑的新功能,如创意创作呈现、智能匹配推荐、个人辅助决策等,使其能在不同行业不同场景中得到应用。   最后,它将带来更智能的辅助决策。凭借机器学习、深度学习、数据分析等技术,人工智能电脑可以基于大量的数据生成有价值的建议,帮助用户做出更智能的决策。例如,根据个人出行习惯数据,人工智能电脑可为用户提供更加智能的出行方案。   人工智能电脑有望成为电脑行业基础性、革命性的突破,具有广阔的发展前景。但它目前仍存在技术成熟度和用户接受度不高、产品路线差异化过大等问题。人工智能电脑的发展将是一个渐进的过程,不过可以肯定的是,迈入智能时代,传统电脑与人工智能技术的融合是大势所趋、时代必然,只是在技术方向与产品应用上还存在一些不确定。
AI助力全球最大科技公司总市值突破10万亿美元 Nvidia 全球最大的科技巨头估值已超过1万亿美元,部分归功于生成式人工智能的投资和进步,估值总计超过10万亿美元,其中Nvidia超越Facebook成为新秀,而Microsoft则取代苹果领先。 目前,包括Microsoft、Apple、Google、Amazon和Nvidia在内的这些公司的市值均超过1万亿美元,根据Google Finance最新的市值数据显示,这在苹果于2018年首次突破这个门槛之前是非常罕见的。虽然苹果曾成为全球第一家市值2万亿美元的美国公司,也是全美首家市值3万亿美元的公司,但目前市值为2.81万亿美元,略低于Microsoft。虽然苹果尚未正式宣布具体的AI整合计划,但一直以来有传言称,苹果正在开发自己的生成式AI,计划在今年晚些时候将其整合到其产品中。 目前,市值最高的科技巨头是Microsoft,估值为2.88万亿美元,这部分得益于其对OpenAI的大规模投资以及将大型语言模型(LLMs)如GPT-4整合到从Windows11操作系统到MS Paint应用等广泛产品和服务中。 Google的市值为1.77万亿美元,最近推出了其Gemini AI系列,其中包括一款在设备上运行的版本,即Gemini Nano,将出现在Pixel8Pro手机中。这是Google在AI领域的第一个尝试之后的新举措。 Amazon的市值为1.56万亿美元,部分原因是将生成式AI整合到其服务中,重点放在广告和电子商务上。 Nvidia在最新的生成式AI热潮中发挥了关键作用。其组件,包括H200和H100,是业界广泛追捧的顶级图形卡,企业纷纷希望参与其中,从而推动其市值达到1.38万亿美元。 至于Meta,由于在其他科技公司专注于生成式AI时全身心投入元宇宙,它最近才涉足这个领域。Meta结束了对技术如何改进其服务进行的20项不同测试。虽然为时已晚,但尚不清楚这些工具和服务是否能将公司的估值提升到与同行相当的水平。
科学家创新技术用更少的GPU训练ChatGPT级别万亿参数模型 科学家们在世界上最强大的超级计算机上取得了巨大突破,仅使用其8%的计算能力,成功训练了一个与ChatGPT规模相当的模型。这项研究来自著名的Oak Ridge National Laboratory,他们在Frontier超级计算机上采用了创新技术,仅使用数千个AMD GPU就训练出了一个拥有万亿参数的语言模型。通常,训练像OpenAI的ChatGPT这样规模的语言模型需要一个庞大的超级计算机。然而,Frontier团队采用了分布式训练策略,通过优化并行架构,仅使用Frontier计算能力的8%就成功完成了这一任务。具体而言,他们采用了随机数据并行和张量并行等技术,以降低节点之间的通信,同时处理内存限制。 这项研究的结果显示,在1750亿参数和1万亿参数模型的情况下,弱扩展效率达到了100%。此外,这个项目还取得了这两个模型的强扩展效率分别为89%和87%。然而,训练拥有万亿参数的大型语言模型始终是一个具有挑战性的任务。研究人员指出,这个模型的体积至少为14TB,而Frontier中的一块MI250X GPU只有64GB。他们强调,需要进一步研究和开发方法来克服内存问题。 在面临大批次大小导致的损失发散问题时,研究人员提出,未来关于大规模系统训练时间的研究必须改善大批次训练,并采用更小的每副本批次大小。此外,研究人员呼吁在AMD GPU上进行更多工作,指出目前大多数大规模模型训练都是在支持Nvidia解决方案的平台上进行的。尽管研究人员为在非Nvidia平台上高效训练大型语言模型提供了“蓝图”,但他们认为有必要更深入地研究在AMD GPU上的高效训练性能。 Frontier在最近的Top500榜单中保持其作为最强大超级计算机的地位,超过了Intel推出的Aurora超级计算机。这项研究为未来训练巨大语言模型提供了宝贵的经验和方法,同时也突显了分布式训练和并行计算在实现这一目标上的关键作用。
斯柯达将 ChatGPT 集成到其汽车的信息娱乐系统中 斯柯达汽车宣布将基于人工智能的聊天机器人 ChatGPT 集成到其 Laura 语音助手中。这一重要举措将增强许多客户的车内体验,并有助于让日常生活变得更加轻松。基于MEB GP和MQB EVO平台的斯柯达车型将受益于这一新功能。他们将能够访问庞大的人工智能数据库,并在驾驶时向他们读出内容。这项新功能由技术合作伙伴 Cerence Inc. 的 Cerence Chat Pro 提供支持,提供独特的汽车级 ChatGPT 集成。个人数据和车辆信息始终受到保护。 从 2024 年中期开始,新的聊天机器人将与最新一代的信息娱乐系统一起提供。它将应用于基于MEB GP和MQB EVO平台的以下车型:斯柯达Enyaq的精选版本、新一代斯柯达Superb和Kodiaq以及更新的斯柯达Octavia。在 Cerence Chat Pro 的支持下,ChatGPT 与 Laura 语音助手的集成引入了多种新功能,远远超出了以前的语音命令。 例如,劳拉Laura语音助手可用于控制信息娱乐、导航和空调以及回答一般知识问题。未来,人工智能将提供额外的信息来回答超出此范围的问题,作为其不断增长的能力的一部分。这在汽车旅途中非常有用:丰富对话、解决问题、以直观的语言进行交互、接收车辆特定信息等等——完全解放双手,为驾驶员和乘客提供更多安全。 对于驾驶员来说,操作仍然简单:通过“你好,劳拉Laura”或相应的方向盘按钮激活语音助手。如果斯柯达系统无法回答该请求,则会匿名转发给人工智能。ChatGPT 不会访问车辆数据或个人信息。所有交互在处理后都会立即删除,以确保最高标准的数据保护。这一新功能也将出现在大众汽车集团品牌的更多车型中。
OpenAI与亚利桑那州立大学合作在课堂上使用ChatGPT 亚利桑那州立大学(ASU)和 OpenAI 宣布建立合作伙伴关系,将 ChatGPT 带入亚利桑那州立大学的课堂。亚利桑那州立大学在一份新闻稿中表示,该校希望将 ChatGPT Enterprise 的使用集中在"三个关键领域",如"提高学生的成功率、开辟创新研究的新途径以及简化组织流程"。ASU 副首席信息官凯尔-鲍文(Kyle Bowen)表示:"我们的教职员工已经在使用 ChatGPT,在 ChatGPT Enterprise 推出后,我们解决了很多安全问题,我们认为与 OpenAI 建立联系是有意义的。"他补充说,ASU 的教师(其中一些人拥有人工智能方面的专业知识)将帮助指导生成式人工智能在校园中的使用。 学校将从二月份开始接受教师和学生提交的项目,以确定在何处使用 ChatGPT。负责本科教育的副教务长安妮-琼斯(Anne Jones)在接受采访时说,一些教授已经在他们的课堂上使用了生成式人工智能。她提到一些作文课使用人工智能来提高写作水平,新闻课使用人工智能平台来制作多媒体故事。琼斯说,聊天机器人甚至有可能成为ASU学生的个性化辅导员。 琼斯和鲍恩说,大学为许多生成性人工智能用例提供了一个活生生的试验场。 "大学希望培养批判性思维,因此我们从未考虑过将自己与技术隔绝开来。我们希望帮助确定这项技术在教育领域的应用条件,"琼斯说。 去年,ASU 启动了一项人工智能加速器计划,将研究人员和工程师聚集在一起,共同创建人工智能驱动的服务。该大学还开始开设及时工程课程,以促进人工智能知识的普及。 这是 OpenAI 与教育机构的首次合作。该公司已慢慢开始与更多面向公众的组织建立合作关系。它宣布与宾夕法尼亚州政府达成协议,为部分州政府雇员提供 ChatGPT Enterprise。
宝马尝试“雇佣”人型机器人进厂 特斯拉计划让机器人进工厂干活,宝马也开始效仿,准备在其美国汽车工厂试验人工智能类人机器人。 宝马与加州的类人机器人开发初创公司Figure达成的协议将在汽车制造环境中部署通用机器人。Figure的机器人据称能够完成多项不同任务,提高生产力、降低成本,并创造更安全、更一致的工作环境。我们来扒一扒这家Figure公司!在CES期间,Figure发布的 Figure-01 机器人只需给它观看示范视频,加上 10 个小时的训练,Figure-01 就能学会使用咖啡机,放咖啡胶囊到按下启动键,一气呵成。假如咖啡胶囊放得不对,Figure-01 还会矫正自己,这确实是有一点好玩的。 宝马和Figure将确定机器人在汽车制造流程中的位置,并逐步在南卡罗来纳州斯帕坦堡的汽车工厂进行部署。Figure的机器人高5英尺6英寸,可承载44磅,充电后可运行5小时,行走速度为2.7英里/小时。宝马公司计划在仓储、物流和零售等行业推广机器人应用。 特斯拉也在开发名为Optimus的类似机器人,用于工厂车间的体力劳动。这一趋势表明,人工智能和机器人技术在汽车制造领域的应用将继续增长。 02Figure公司概要 美国初创公司Figure在23年获得Parkway Venture Capital领投的7000万美元的首轮外部融资,然后英特尔投资900万美元,用于打造通用型人形机器人。将用于加速首款自主人形机器人的开发和制造,公司成立仅一年,估值超过4亿美元。Figure的目标是开发能够在不同环境中工作并处理各种任务的通用型人形机器人,从仓储到零售都可以应用。Figure正在与零售商商谈商业化机会,致力于开发机器人能够处理通用任务,并最终实现机器人与环境的学习和互动。通用型人形机器人比单一功能的机器人有更大的潜力,可以帮助解决劳动力短缺问题,并逐渐消除不安全和不受欢迎的工作。在竞争激烈的市场上,大型科技公司和初创公司都在争相开发下一代商业化的人形机器人。
“ChatGPT之父”关于人工智能有哪些新观点 在瑞士达沃斯,美国开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼无疑是炙手可热的“明星”之一。   奥尔特曼被誉为“ChatGPT之父”。2022年11月,OpenAI推出大语言模型ChatGPT,掀起了生成式人工智能的热潮。近日在世界经济论坛2024年年会上,奥尔特曼发表了哪些关于人工智能的最新观点?      人工智能会降低我们对彼此的关注吗?   1997年,当IBM公司研制的人工智能系统“深蓝”击败国际象棋世界冠军加里·卡斯帕罗夫时,有评论员预测“这将是国际象棋的终结”,此后没有人会再费心看棋或下棋。   但时至今日,“我们仍对人类所做的事情非常感兴趣,几乎没人观看两个人工智能对弈,”奥尔特曼说,他在读完自己喜欢的书后,第一件事就是了解作者的生活,“我想感受到与那个引起我共鸣的人之间的联系”。   奥尔特曼说,人类始终在获得更好的工具,但有一点不会改变,那就是“今天我们仍然非常关注彼此”。      需要担心人工智能取代人类工作吗?   奥尔特曼认为,人工智能将对人类工作产生巨大影响。如今,人工智能已经成为“令人难以置信的生产力工具”,但尚未以经济学家担心的规模取代工作岗位。   人类还能从事哪些工作?奥尔特曼以自己为例说,“我并不是人工智能研究人员,我的角色是弄清楚我们将做些什么,然后与其他人合作并实现目标。”他认为,未来,人类将在更高的抽象层次工作,也将获得更多能力。      人工智能监管是好事情吗?   奥尔特曼表示对人工智能技术实施监管表示欢迎。他认为各方在发展人工智能技术过程中“遵守高标准是件好事”,科技行业有责任将社会意见纳入诸如价值观和安全阈值等决策中,以保证收益大于风险。   奥尔特曼强调,“应让社会和技术共同发展,构建这些(人工智能)系统时,应通过非常严格的反馈循环和路线修正使其逐步发展,在符合安全要求的同时提供巨大价值”。      比技术更难的问题   奥尔特曼指出,对人工智能进行“迭代部署”意味着社会可以逐渐习惯这项技术,并让“我们的机构有时间展开讨论,以弄清楚如何监管”。   奥尔特曼认为, GPT-3和GPT-4在对价值观保持一致方面取得了“巨大进展”。但他认为,比技术更难的问题是:谁来决定这些价值观、默认价值观是什么、界限是什么?它在不同国家如何运作?用它可以做什么以及不可以做什么?“这是一个重大社会问题。”他说。      AGI是不是“严重危害”?   通用人工智能(AGI)是人工智能的重要研究方向。去年2月,奥尔特曼曾警告通用人工智能(AGI)的“严重危害”。在世界经济论坛上,奥尔特曼的态度有所软化。   与微软首席执行官萨蒂亚·纳德拉对话时,奥尔特曼表示,AGI将是一个“令人惊讶的持续性事物”,“每年我们都会推出一个新模型,而且会比前一年好得多”。   在另一场对话中,奥尔特曼认为,AGI可能会在“相当近的未来”得到开发,但“对世界的改变将比我们想象得要小得多,对工作的改变也比我们想象得要小得多”
Urtopia推出智能自行车与ChatGPT集成,将用户健身与AI融合 Urtopia公司首席执行官张欧文在CES上展示了该公司最新推出的智能自行车及智能环,引入了ChatGPT集成,将用户的健身体验与人工智能融为一体。 据悉,Smartbar是Urtopia自行车的亮点,通过LTE和蓝牙连接到智能手机,并搭载了ChatGPT,使骑手可以通过语音命令与电动自行车进行直接互动。这项技术不仅提供了语音命令的便利,而且无需智能手机即可利用ChatGPT的功能。图源备注:图片由AI生成,图片授权服务商Midjourney 最新的Urtopia自行车不仅仅是交通工具,更是移动教练、智能伴侣和声控助手。用户可以通过语音命令告诉自行车目的地和期望的骑行距离,ChatGPT将为其规划最佳自行车路线,并通过显示屏和语音指导引导骑手沿着该路线骑行。 即将推出的Urtopia智能环将进一步提升用户的教练体验,通过收集健康数据,包括睡眠阶段,与骑行数据同步,为用户提供针对其当前健康状况优化的骑行体验。根据用户的睡眠质量和恢复水平,自行车会调整提供的电动帮助水平,实现个性化的健身计划。 智能环还充当自行车的安全钥匙,确保只有用户在附近时才能解锁并准备骑行,同时提供安全功能,如自动关闭和激活防盗功能。 目前,Urtopia Carbon1Pro已经开始接受预订,价格为2,499美元(预订折扣500美元),计划在3月份开始发货。Urtopia Fusion GT和Urtopia智能环预计将于2024年7月上市。购车者还可享受一年的免费eSIM服务,随后的服务费用为39美元,用户可以通过Utopia智能手机应用程序查看所有健康数据和骑行记录等信息。
人工智能不应该做出“生死攸关”的决定 OpenAI首席执行官、“ChatGPT之父”山姆·奥特曼周四表示,无论人工智能(AI)如何发展,人类将继续决定“世界上应该发生什么”。 奥特曼在瑞士达沃斯世界经济论坛上的一次对话中指出,人工智能擅长很多事情,但生死攸关的情况应该由人类自己做决定,而不是交给人工智能系统。 “这是一个有时是对的,有时是创造性的,有时甚至是完全错误的系统。你实际上不希望让它驾驶你的汽车,但你很高兴它能帮助你集思广益,想出要写的文本内容,或者帮助你检查代码。” OpenAI推出的ChatGPT聊天机器人目前是世界上最先进的生成式人工智能系统之一,专家们表示,这可能会极大地提升生产力,从而改变全球经济。但也有人担忧,人工智能可能摧毁人类,或者至少导致大范围的失业。奥特曼的看法显然更为乐观。他表示,人们已经找到了使用生成式人工智能提高工作效率的方法,他们也知道什么时候不能用它。奥特曼补充说,生成式人工智能为人类提供了更好的工具和更多的能力,但我们仍然最为关注人类自身。 人工智能是今年世界经济论坛的一个主要焦点,有多场会议探讨了这项技术对社会、就业和更广泛经济的影响。 国际货币基金组织(IMF)本周发布报告称,人工智能技术将影响全球近40%的就业岗位,相比于新兴市场和低收入国家,发达国家的就业更容易受到人工智能的影响。它还警告说,在大多数情况下,这种技术对全球劳动力市场的潜在影响可能会加剧整体不平等。 对于这个话题,Salesforce首席执行官Marc Benioff在讨论会上表示,人工智能并没有取代人类,而是增强了人类的能力。他举例称,古驰在意大利的一个客户服务中心使用了Salesforce的人工智能软件后,该中心的收入和效率大幅提高。 尽管人们对这项技术的潜力持乐观态度,但Benioff和奥特曼都强调,有必要对人工智能系统进行监管,以防范这项技术带来的一些潜在的生存威胁。 为了避免人工智能干预选举的风险,OpenAI本周就其政策进行了一系列澄清,称其工具不得用于政治竞选和游说。为了帮助选民更好地评估信息或图像是否由人工智能生成,OpenAI表示,对于Dall-E生成的图像,将就图像溯源相关细节进行编码。 奥特曼声称:“我认为人们担心这项技术的缺点是件好事,讨论这个问题是件好事,让我们公司和其他人被要求遵守高标准也是件好事。”
OpenAI 阿尔特曼洽谈数十亿美元的投资,要建国际AI 芯片生产网络 OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)正洽谈一笔数十亿美元的投资,通过和全球领先的芯片制造商(暂未公布名称)合作,计划建立人工智能芯片生产国际网络。这项投资旨在克服人工智能发展中的关键挑战,例如缺乏用于 ChatGPT 和 DALL-E 等人工智能模型的高性能处理器。 从当前的行业趋势来看,为人工智能模型(如 ChatGPT 或 DALL-E)开发和生产功能强大的芯片,使其能够回答查询和创建图像,其重要性不言而喻。 英伟达公司凭借其广受欢迎的 H100 GPU,近乎垄断了市场,并推动该公司市值首次超过 1 万亿美元。H100 等加速卡被广泛用于训练 GPT-4、Gemini 和 Llama 2 等高级人工智能模型。 随着高性能人工智能芯片竞争的加剧,必须尽早确保必要的生产能力。在此背景下,阿尔特曼及其团队正在与软银集团、阿布扎比的 G42 等投资巨头洽谈,为这一大型项目融资。 不仅是 OpenAI,包括微软、亚马逊和谷歌在内的 IT 行业其他主要企业也在积极开发自己的人工智能芯片。 微软是 OpenAI 的投资方之一,它于去年 11 月宣布正在开发首款用于训练人工智能模型的专有人工智能芯片。亚马逊随后推出了其 Trainium 芯片的升级版;谷歌的芯片设计团队在谷歌云服务器上使用 DeepMind AI 设计其 AI 处理器,包括张量处理单元(TPU)。
《报告》显示:人工智能和安全科技是未来两大通用技术 “安全科技是一种伴生技术”“安全科技是压舱石和助燃剂”……近期发布的《数字时代安全科技价值报告》(以下简称《报告》)认为,安全科技将成为社会的公共品,与人工智能并列为未来的两项通用技术。在人工智能(AI)大模型及深度数字化趋势下,安全科技的价值在放大。《报告》由中国社会科学院大学数字中国研究院联合蚂蚁集团发布。《报告》认为,“安全科技”包括一系列旨在保护信息、网络和计算机系统免受未经授权的访问、攻击和威胁的工具、技术、系统,是一种更为通用、包含多领域、多种前沿技术的复杂系统性技术集群。 中国社会科学院大学数字中国研究院执行院长吕鹏表示,数字化安全风险进入了快迭代、高智能、全覆盖的新格局。尤其是2022年底AI大模型进一步推动了深度智能时代的到来。在此背景下,提高社会对于安全科技的认知、重视与参与很有必要,这也是报告的核心内容。 “在过去,‘网络安全’即安全科技,其中入侵检测、防火墙、反病毒等安全技术是主流。当前,随着数字化、智能化的发展,新技术衍生了新的安全风险,安全技术一直更新升级,逐渐走向无边界。”《报告》认为,安全科技是一种伴生技术,永远面向新科技、新发展。例如,面向人工智能,会有智能安全;面向生物科技,会有生物安全。 根据技术成熟性与前沿性,研究团队从应用价值角度将安全科技分为了四大板块——基础安全、业务安全、AI安全、未来安全。其中,基础安全包含传统的系统安全、网络安全、数据安全等,是一种底层安全能力;业务安全是企业或机构根据自身业务需求,针对可能遇到的业务风险研发的一系列技术;伴随AI大模型的诞生,AI安全成为主流的安全关切,涉及数据去毒、模型安全、AIGC检测技术等;面向未来的安全发展,也有一些规模较小的前沿技术出现,如量子信息安全技术。 近年来,我国安全科技市场处于爆发式增长阶段,出现了一大批新的安全技术,包括了区块链、隐私计算、对抗智能、量子计算等。 “技术是把双刃剑,在它快速变强大时,我们不可能扔掉利刃;惟有以另一种科技打造足够安全的刀鞘。”吕鹏表示,人工智能和安全科技将成为两项通用技术。 研究团队认为,人工智能是未来生产力的“发动机”,将在各行各业数字化的基础上进一步实现智能化;安全科技作为“方向盘”,将各种新科技控制在向善的道路上,两者融合、创新与发展。 如何让安全科技成为公共品?《报告》认为,要通过更多的公共力量投入,在合规激励、商业保险、行业标准、安全思维更新等方面加强生态联动,构建更好的安全科技实力和制度,采用数字化转型的“慢起飞模型”,新的安全技术将得到更好的发展。
DeepMind 的最新人工智能可以解决几何问题 Google人工智能研发实验室DeepMind认为,提高人工智能系统能力的关键可能在于发现解决具有挑战性的几何问题的新方法。为此,DeepMind 今天发布了 AlphaGeometry--该实验室声称该系统能够解决的几何问题与国际数学奥林匹克金牌得主的平均水平相当。AlphaGeometry 的代码已于今天上午开源,它能在标准时限内解决 25 个奥数几何问题,超过了之前最先进系统的 10 个。 Google人工智能研究科学家Trieu Trinh和Thang Luong在今天上午发表的一篇博文中写道:"解决奥林匹克级的几何问题是开发深度数学推理的一个重要里程碑,是迈向更先进、更通用的人工智能系统的必经之路。[我们]希望......AlphaGeometry 能够帮助我们在数学、科学和人工智能领域开辟新的可能性"。 为什么关注几何?DeepMind 断言,证明数学定理,或从逻辑上解释为什么一个定理(如勾股定理)是真的,既需要推理,也需要从一系列可能的步骤中选择解决方案的能力。如果 DeepMind 的想法是正确的,那么这种解决问题的方法有朝一日会在通用人工智能系统中大显身手。 DeepMind在新闻稿资料中写道:"证明某个猜想的真假,即使是当今最先进的人工智能系统也力不从心。朝着这个目标,能够证明数学定理......是一个重要的里程碑,因为它展示了对逻辑推理的掌握和发现新知识的能力。" 但是,训练人工智能系统解决几何问题带来了独特的挑战。 由于将证明转化为机器能够理解的格式非常复杂,因此可用的几何训练数据非常匮乏。而当今许多尖端的生成式人工智能模型虽然在识别数据中的模式和关系方面表现出色,但却缺乏通过定理进行逻辑推理的能力。 在设计 AlphaGeometry 的过程中,该实验室将"神经语言"模型(一种在架构上与 ChatGPT 类似的模型)与"符号推导引擎"(一种利用规则 - 如数学规则来推断问题解决方案的引擎)配对使用。符号引擎可能不够灵活且速度较慢,尤其是在处理大型或复杂的数据集时。但 DeepMind 通过让神经模型"引导"推理引擎找出给定几何问题的可能答案,缓解了这些问题。为了代替训练数据,DeepMind 创建了自己的合成数据,生成了 1 亿条"合成定理"和不同复杂程度的证明。然后,实验室在合成数据上从头开始训练 AlphaGeometry,并在奥林匹克几何问题上对其进行评估。 奥林匹克几何问题以图表为基础,在解题前需要添加"构造",如点、线或圆。应用于这些问题时,AlphaGeometry 的神经模型会预测哪些构造可能需要添加--AlphaGeometry 的符号引擎会利用这些预测对图表进行推理,从而找出类似的解决方案。 Trinh和Luong写道:"有了这么多这些构造如何导致证明的例子,AlphaGeometry的语言模型就能在遇到奥林匹克几何问题时为新的构造提出好的建议。一个系统提供快速、'直观'的想法,而另一个系统则提供更深思熟虑、理性的决策。" AlphaGeometry的解题结果发表在本周的《自然》(Nature)杂志上,它很可能会引发一场旷日持久的争论:人工智能系统应该建立在符号操作(即使用规则操作代表知识的符号)的基础上,还是建立在表面看来更像大脑的神经网络的基础上。 神经网络方法的支持者认为,智能行为--从语音识别到图像生成时可以从海量数据和计算中产生。与符号系统相比,神经网络试图通过统计近似和从实例中学习来解决任务,而符号系统则是通过定义专门用于特定工作的符号操纵规则集来解决任务(如在文字处理软件中编辑一行)。 神经网络是 OpenAI 的 DALL-E 3 和 GPT-4 等强大人工智能系统的基石。但是,符号人工智能的支持者认为,神经网络并不是万能的;这些支持者认为,符号人工智能可能更适合高效地编码世界上的知识,在复杂的场景中进行推理,并"解释"它们是如何得出答案的。 作为一个类似于 DeepMind 的 AlphaFold 2 和 AlphaGo 的符号-神经网络混合系统,AlphaGeometry 或许证明,将符号操作和神经网络这两种方法结合起来,是寻找可通用人工智能的最佳途径。 "我们的长期目标仍然是建立能够在数学领域通用的人工智能系统,开发通用人工智能系统所依赖的复杂问题解决和推理能力,同时拓展人类知识的前沿,"Trinh 和 Luong 写道。"这种方法可以塑造未来的人工智能系统如何发现数学及其他领域的新知识"。
人工智能正在抢走翻译的“饭碗” ChatGPT刚面世时,世界无不惊叹于它的超级智慧。然而现在,AI正如巨浪一般拍向打工人,夺走他们的工作。 近日,据媒体报道,全球语言学习平台多邻国在去年底裁减了约10%的外部合同工,转而使用OpenAI的GPT-4等大模型来完成翻译工作和内容制作。该公司也是又一个把AI作为裁员理由的公司。这则消息最早在海外社交平台Reddit上传出,一位被辞退的翻译说自己于去年12月被解雇。理由是,AI可以在很短时间内完成他所做的工作,公司只需保留少部分负责检查AI产出内容的员工即可。 裁员帮助多邻国节约了大量人力成本,但受波及的主要是外部合同工,而非内部正式员工。目前该公司全职员工为700人左右。 成立于2011年的多邻国,主要通过游戏化的听、说、读、写方式帮助用户学习多国语言,覆盖英语、法语、日语等40个语种。它和国内用户熟悉的流利说、百词斩等应用类似,都是强调通过科技手段来制定学习内容。 早在ChatGPT风潮席卷科技界之前,这家总部位于美国宾夕法尼亚州匹兹堡市的公司便与OpenAI展开合作。目前多邻国共推出了三个AI功能,其中GPT-4被应用在了一项收费最高的功能中,以此来负担调用OpenAI接口的费用。 很多企业在裁员时惯用“迫于业绩压力”一说,但多邻国的营收和股价都处于历史高点。 此前多邻国曾连续8个季度亏损,但在去年植入GPT-4两个月后,当季净亏损较上一年收窄了79%,并在接下来的季度实现扭亏为盈。 截至发稿,多邻国股价为214美元,为上市后第二次超过200美元,远超国内头部教育企业新东方的76美元和好未来的11美元。而在融入AI之前,多邻国股价在90美元上下徘徊。 和多邻国一样,包括网易、科大讯飞在内的很多科技公司都在将AI技术引入翻译业务。调查公司Global Market Insights的数据显示,2020年AI翻译市场规模还只是6.5亿美元,预计2027年将达到30亿美元,增长近4倍。 相比传统的人工翻译,AI翻译最大的优势在于速度快和成本低。即使在一些对翻译质量有较高要求的场景,AI也能表现得与人类相当。 一位有道翻译专家向界面新闻透露,目前有道智云、微软和谷歌的公开报价在每百万字符6美元到10美元,相当于每千字0.043元到0.072元。而人工翻译的常见报价在每千字150左右,二者成本差距巨大。 但这并不意味着短期内AI会完全取代人工翻译。一位在知网从事翻译工作的人说,通常像政经历史类的文章,AI翻译的效果不会太差,只需人工稍微润色即可。而文学类内容,尤其是古文和诗句,AI就不太行了。 要让AI翻译彻底代替人工,它还需要熟练掌握两种能力:丰富的词汇数据以及精准的情感理解。 由于部分专业词汇在语料中出现频率较低,算法模型很难从有限的样本中学习到专业领域的词汇或表达方式。 “我们需要开发出更先进的算法或者设计出更智能的数据增强技术,以帮助AI翻译系统更准确地掌握专有词汇和表达方式。”一位AI算法领域的研究人员表示。 不仅如此,AI在处理双关语、隐喻等独特的语言时,仍缺乏足够的灵活性和精准性。上述研究人员称,现在的算法还很难精准捕捉文本中的情感和语境。例如当同一个词在不同的情感或文化背景下具有不同含义时,对AI翻译来说仍是比较大的挑战。 但随着ChatGPT爆火,确实有越来越多的人担心被AI抢走饭碗。国际货币基金组织最新发布的报告显示,全球近四成的就业岗位会受到AI影响,特别是翻译工作者、作家、媒体从业者等,所受影响最为显著。 这也让不少积极用AI降低人力成本的公司有了新的裁员理由。 去年IBM宣布将用AI取代7800个工作岗位,暂停招聘AI可以胜任的岗位。谷歌也表示将使用更具个性化的AI工具,来取代广告销售部门。除此以外,教育技术公司Chegg、云存储服务商Dropbox也纷纷以“AI可以创造更多价值”为由进行裁员。 在不久的将来,打工人的饭碗可能真的很难守住了。
比尔·盖茨:chatgpt是人工智能技术的巨大进步 1月16日,微软创始人比尔·盖茨在达沃斯闭门演讲中分享了他对ChatGPT的深刻见解,强调这款人工智能技术的突破将极大地推动生产力的提升,并在未来五年内实现显著的变革。作为OpenAI研发的一款聊天机器人程序,ChatGPT自2022年11月30日发布以来,已经引起了全球范围内的广泛关注。这款AI技术驱动的自然语言处理工具能够基于在预训练阶段所见的模式和统计规律,生成具有人类对话特质的回答,并且能够根据聊天的上下文进行互动。它不仅可以完成撰写邮件、视频脚本、文案、翻译、代码等任务,甚至可以完成撰写论文等高级任务。 盖茨表示,ChatGPT的出现是人工智能技术的一次巨大进步,它能够读取和撰写的能力将对白领工作者的工作方式产生深远影响。 盖茨进一步指出,ChatGPT的应用将使大量的分析工作瞬间完成,大大提高工作效率。这对于日常工作的处理无疑是一次巨大的变革。此外,他强调了AI技术在科学领域中的潜力,例如进行分子动力学模拟分析,帮助医生对症下药。他表示,这在以前需要量子计算机才能完成的工作,现在只需借助ChatGPT等AI技术即可实现。 随着AI技术的不断发展和完善,我们有理由相信,在不远的未来,AI技术将为我们的生活和工作带来更多的便利和惊喜。
OpenAI首席执行官奥特曼称人类级别的AI即将出现 近日,在瑞士达沃斯世界经济论坛上,OpenAI首席执行官萨姆·奥特曼表示,对于人工智能有一天将变得非常强大,对世界产生巨大重塑和破坏的担忧是夸大其词的。 他认为,人工通用智能(AGI)不会像人们想象的那样彻底改变世界和工作。奥特曼特别提到AGI,指的是一种能够完成任务与人类相同或略高水平的人工智能形式。他认为,AGI可能在相当接近的未来内被开发出来。尽管OpenAI在ChatGPT聊天机器人于2022年底成功发布,但奥特曼试图缓解AI怀疑论者对技术接管社会的担忧。他曾在GPT-4发布之前警告技术人员不要对其过于兴奋,表示人们可能会对其感到失望。 据悉,OpenAI成立于2015年,其宣布的使命是实现人工通用智能。目前公司得到了微软的支持,私有市值接近1000亿美元,表示希望安全设计这项技术。 当被问及AI是否会加剧经济不平等时,奥特曼表示这是一个值得思考的问题,但他认为AI更像是一个生产工具,而不是大规模取代工作的威胁。 关于人工智能安全性和OpenAI在其中的保护角色的担忧是奥特曼在去年11月被短暂罢免公司领导职务的核心原因。董事会表示对其领导力失去了信心,但在员工和投资者的广泛抗议后,奥特曼迅速恢复为首席执行官。微软在他回归后获得了OpenAI的非投票董事会观察员席位。
NVIDIA AI技术集体秀:游戏NPC真正活过来了 乍一看,NVIDIA在本届CES 2024大展期间似乎只是纸面发布了RTX 40 SUPER系列桌面显卡,并没有太多动作,但其实不然。 特别是在最擅长、最让人信服的AI领域,NVIDIA拿出了多项技术创新,涉及到游戏、图像、视频、直播等多个应用场景,再次彰显了自己的领导地位。 快科技有幸参观了NVIDIA展示的一系列DEMO,接下来和大家分享。 【ACE技术与游戏AI NPC】 ACE也就是Avatar Cloud Engine(虚拟形象云引擎),可以利用最先进的生成式AI模型,在到游戏、应用中生成可以自然交互的虚拟数字人物。 同时有Audio2Face(A2F)等AI模型可以生成丰富、自然的面部表情,Riva自动语音识别(ASR)可以用于多语言语音翻译。 有了这一系列新技术,游戏NPC不再是以往的固定套路,而是能够和玩家自然交互,玩家可以问他任意问题,比如最近情况怎么样呀,给我下碗面呀,之类的。 对于不同玩家的哪怕同一问题,AI NPC也会给出不同的反应,结果就是每一场对话、每一次互动,都是独一无二的。 AI NPC还具备场景物体感知能力,你可以问他某个物品的作用,它们还可以捡起物品并送到指定区域。 此外,AI NPC还能带领玩家穿越游戏世界,到达目标位置。 现已采用ACE技术的开发商有Convai、Charisma.AI,、Inworld、米哈游、网易游戏、掌趣科技、腾讯游戏、育碧、UneeQ。
AI并没有学习! Nature子刊最新研究解码人工智能黑盒 人工智能(AI)一直在迅速发展,但对人类来说,强大的模型却是个「黑匣子」。 我们不了解模型内部的运作原理,不清楚它得出结论的过程。 然而最近,波恩大学(University of Bonn)的化学信息学专家Jürgen Bajorath教授和他的团队取得了重大突破。 他们设计了一种技术,揭示了药物研究中使用的某些人工智能系统的运行机制。 他们的研究结果表明,这些人工智能模型主要依赖于回忆现有数据,而不是学习特定的化学相互作用,来预测药物的有效性。 ——也就是说,AI预测纯靠拼凑记忆,机器学习实际上并没有学习! 他们的研究结果最近发表在《自然机器智能》(Nature Machine Intelligence)杂志上。论文地址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fwww.nature.com%2Farticles%2Fs42256-023-00756-9&urlrefer=6bcceb762b5b4134ddf676b75d719c51 在医药领域,研究人员正在狂热地寻找有效的活性物质来对抗疾病——哪种药物分子最有效? 通常,这些有效的分子(化合物)会对接在蛋白质上,蛋白质作为触发特定生理作用链的酶或受体。 在特殊情况下,某些分子还负责阻断体内的不良反应,例如过度的炎症反应。 可能的化合物数量巨大,寻找有效的化合物就像大海捞针一样。 因此,研究人员首先使用AI模型来预测,哪些分子最能与各自的靶蛋白对接并牢固结合。然后在实验研究中,更详细地进一步筛选这些候选药物。自人工智能发展以来,药物发现研究也越来越多地采用AI相关的技术。 比如图神经网络(GNN),适用于预测某种分子与靶蛋白结合的强度。 图由表示对象的节点和表示节点之间关系的边组成。在蛋白质与配体复合物的图表示中,图的边连接蛋白质或配体节点,表示物质的结构,或者蛋白质和配体之间的相互作用。 GNN模型使用从X射线结构中提取的蛋白质配体相互作用图,来预测配体亲和力。 Jürgen Bajorath教授表示,GNN模型对于我们来说就像一个黑匣子,我们无法得知它如何得出自己的预测。Jürgen Bajorath教授任职于波恩大学LIMES研究所、波恩-亚琛国际信息技术中心(Bonn-Aachen International Center for Information Technology)和拉玛机器学习与人工智能研究所(Lamarr Institute for Machine Learning and Artificial Intelligence)。 人工智能如何工作? 来自波恩大学化学信息学的研究人员,与罗马Sapienza大学的同事一起,详细分析了图神经网络是否真的学习到了蛋白质与配体的相互作用。 研究人员使用他们专门开发的「EdgeSHAPer」方法分析了总共六种不同的GNN架构。 EdgeSHAPer程序可以判断GNN是否学习了化合物和蛋白质之间最重要的相互作用,或者是通过其他的方式来得出预测。 科学家们使用从蛋白质配体复合物结构中提取的图训练了六个GNN,——化合物的作用方式以及与靶蛋白的结合强度已知。 然后,在其他复合物上测试经过训练的GNN,并使用EdgeSHAPer分析GNN如何产生预测。 「如果GNN按照预期行事,它们需要学习化合物和靶蛋白之间的相互作用,并且通过优先考虑特定的相互作用来给出预测」。 然而,根据研究小组的分析,六个GNN基本上都没有做到这一点。大多数GNN只学会了一些蛋白质与药物的相互作用,主要集中在配体上。上图展示了在6个GNN中的实验结果,色标条表示用EdgeSHAPer确定的每个预测的前25个边中蛋白质、配体和相互作用所占的平均比例。 我们可以看到,代表绿色的相互作用本该是模型需要学到的,然而在整个实验中所占的比例都不高,而代表配体的橙色条占了最大的比例。 为了预测分子与靶蛋白的结合强度,模型主要「记住」了它们在训练过程中遇到的化学相似分子及其结合数据,而不管靶蛋白如何。这些被记住的化学相似性基本上决定了预测。这让人想起「聪明的汉斯效应」(Clever Hans effect),——就像那匹看起来会数数的马,实际上是根据同伴面部表情和手势的细微差别,来推断出预期的结果。 这或许意味着,GNN所谓的「学习能力」可能是站不住脚的,模型的预测在很大程度上被高估了,因为可以使用化学知识和更简单的方法进行同等质量的预测。 不过,研究中也发现了另外一个现象:当测试化合物的效力增加时,模型倾向于学习到更多的相互作用。 也许通过修改表征和训练技术,这些GNN还能朝着理想的方向进一步改进。不过,对于可以根据分子图学习物理量的假设,一般来说应该谨慎对待。 「人工智能不是黑魔法。」 --- 本贴转自新智元 MSN
微软AI助手Copilot或将升级,用户免费使用GPT-4 Turbo 今天,推特上AI社区的知名博主Paul Couvever在帖子中透露,微软AI助手Microsoft Copilot的一些用户现在可以免费使用OpenAI的最新大模型GPT-4的最新改进版本GPT-4 Turbo。微软公司在去年12月初宣布开始为Copilot添加包括GPT-4 Turbo在内的新功能,现在这些升级已陆续上线。 过去用户访问GPT-4 Turbo通常需要订阅ChatGPT Plus,其费用起价为每月20美元,但现在每个人都可以免费使用GPT-4 Turbo产品的功能。对于用户来说,这意味着可以免费使用更高性能的生产力工具。 那么用户如何知道自己是否有访问GPT-4 Turbo的权限呢?基于Paul Couver的推文,以下是查看是否是可访问用户的四个步骤: 1、访问Copilot官网:用户首先需要访问Microsoft Copilot的官方网站(网址为copilot.microsoft.com)。该网站需要用户使用Microsoft帐户登录。 2、访问源代码页面:用户进入Copilot网站后,需要查看网页的底层源代码,可以通过在Windows上按Ctrl+U或在macOS上按Cmd+U来执行此操作。此操作将打开显示代码的新选项卡或窗口。 3、搜索GPT-4 Turbo:用户在查看源代码的页面下,在Windows上按Ctrl+F或在macOS上按Cmd+F启动搜索。在显示的搜索字段中,键入“gpt4”搜索。4、确认账户状态:如果在页面源代码中有对GPT-4 Turbo的调用,则用户就可以在Copilot中使用GPT-4 Turbo。这意味着用户的Microsoft Copilot已在功能和帮助上有了重大改进。 需要注意的是,GPT-4 Turbo在技术上是一个预览版本,这意味着它有时会不稳定,而且可能存在一些错误或限制。OpenAI称,它计划在未来几周内发布准备就绪的模型。目前,用户仍然可以在Copilot中使用GPT-4 Turbo来探索其功能并获得乐趣。 结语:Copilot集成更强大模型,微软AI工具或全面提升 在数字媒体的世界里,最具变革性的工具往往是那些无缝地、几乎无形地融入人们日常生活的工具,这些工具将在不引人注意的情况下改变游戏规则。随着GPT-4 Turbo成为Copilot的一部分,时间会证明这次悄无声息的更新是否标志着人们对AI工具的使用发生了重大转变。 不断升级创新的微软Copilot服务展现了该公司对技术发展的执着追求。从语言模型到图像生成,再到搜索体验的优化,微软正在努力为用户提供更为智能、全面的服务。随着GPT-4 Turbo模型的整合和其他功能的推出,Copilot有望成为用户在日常工作和创作过程中不可或缺的伙伴。
OpenAI首次推出面向小型团队的ChatGPT订阅服务 OpenAI 为其人工智能聊天机器人 ChatGPT 推出了一项新的订阅计划,主要面向规模较小、以自助服务为导向的团队。该计划名为 ChatGPT Team,为使用 ChatGPT 的 149 人以下团队提供专用工作空间,并为团队管理提供管理工具。 ChatGPT 团队中的所有用户都可以使用 OpenAI 的最新模型--GPT-4(生成文本)、GPT-4 with Vision(除文本外还能理解图像)和 DALL-E 3(创建图像)--以及允许 ChatGPT 从上传文件中分析、编辑和提取信息的工具。ChatGPT Team 还能让团队成员构建和共享 GPT,即基于 OpenAI 文本生成 AI 模型的定制应用程序。GPT 不需要变成经验,可以根据需要设计得可简单可复杂。例如,GPT 可以导入公司的专有代码库,这样开发人员就可以检查其风格或根据最佳实践生成代码。 作为额外的好处,OpenAI 表示,ChatGPT Team 的客户将获得未说明的新功能和改进,而且它不会在团队数据或对话上训练模型。 ChatGPT Team 的价格为每个用户每月 30 美元,或每个用户每月 25 美元,按年计费--高于 ChatGPT Plus(OpenAI 的个人高级 ChatGPT 计划,每月 20 美元)。但 ChatGPT Team 比 ChatGPT Enterprise 便宜得多,后者的月费高达 60 美元(至少 150 个用户和 12 个月的合同)。 ChatGPT Team 似乎是为中小型企业客户量身定做的,他们需要面向团队的 ChatGPT 功能,但又不必为此支付高昂的费用。这很可能是一个利润丰厚的领域;根据 ResumeBuilder 最近的一项调查,49% 的公司将 ChatGPT 用于编码、创建职位描述和面试问题等内容、总结文件和会议等用例,30% 的公司表示打算在未来使用 ChatGPT。
OpenAI CEO阿尔特曼做客比尔盖茨播客:ChatGPT将能够生成视频 据比尔盖茨官方公众号,在最新一期的《为自己解惑》播客节目中,登场的嘉宾是刚刚迎来“新婚之喜”的 OpenAI 首席执行官萨姆・阿尔特曼。两人分享了自己对 AI 飞速发展过程中人类所处位置的思考,比尔盖茨直言,“我有幸见证了你们工作的进展,但开始的时候我是非常怀疑的,我也没期待过 ChatGPT 能做得这么好。” 阿尔特曼透露了 ChatGPT 未来的“宏伟计划”,包括功能层面将迎来大幅度扩展,以及增强推理能力。当被问及未来两年这款聊天机器人将在何种领域取得“进阶”时,阿尔特曼透露称,包括多模态、语音输入输出、图像生成,最终将是(生成)视频。 比尔・盖茨:当你展望未来两年,你认为会有哪些重要的里程碑? 萨姆・阿尔特曼:多模态肯定会很重要。 比尔・盖茨:你指的是语音输入、语音输出? 萨姆・阿尔特曼:语音输入、语音输出,然后是图像,最终是视频。 阿尔特曼还表示,ChatGPT 已经具备了图像和音频(的生成能力),反响“比我们的预期要强烈得多”。但最重要的进步领域“也许”将围绕推理能力展开。 现在,GPT-4 的推理能力还非常有限。还有可靠性,如果你问 GPT-4 大部分问题 10000 次,这 10000 次中可能有一次回答得很好,但它不一定知道是哪一次。而你却希望每次都能得到这 10000 次中最好的回答,因此可靠性的提升将非常重要。 两人还谈到了自己手机上最常用的 App,阿尔特曼最常用的其实不是 ChatGPT(尽管他自己希望是),而是 Slack(一款利用生成式 AI 完成自动化处理常规任务的 App)。至于比尔盖茨,他则自称是“传统的电子邮件派”,故最常使用 Outlook。
不仅做GPT Store,OpenAI还要做AI搜索引擎 OpenAI 终于上线备受外界关注的 GPT Store 了,那么在这个 AI 时代,GPT Store 是否可以成为超级流量入口?关于大模型的生态之争、入口之争,当下呈现出了怎样的态势?不妨一起来看看本文的解读与分析。 在发布 GPTs(ChatGPT 的自定义版本)功能两个月之后,OpenAI 终于在今天上线了万众期待的 GPT Store。 OpenAI 宣称用户已经创建了超过 300 万个 GPTs,许多创建者都分享了他们的 GPTs 供其他人使用。不过,GPT Store 目前仅“充值可用”,面向 ChatGPT Plus、Team(团队版)和 Enterprise(企业版)用户开放。 其中,ChatGPT Team 是今天 OpenAI 最新推出的付费版本。按年计费时,ChatGPT Team 的费用为每位用户每月 25 美元;按月计费时,每位用户每月 30 美元。 GPT Store 被认为是下一个 App Store,如何商业化也成为用户关心的话题。OpenAI 表示将启动“ GPT 构建者收入计划”。第一步,美国开发者将根据用户对其 GPT 的参与度获得报酬。随着时间的推移,OpenAI 将提供有关付款标准的详细信息。 在移动互联网时代,得入口者得天下。在 AI 时代,OpenAI 的 GPT Store 能否成为那个超级流量入口? 挑战搜索引擎的新流量入口 ChatGPT 是史上增长最快的应用。2024 年 1 月初,研究机构 Writerbuddy 统计的数据显示,在全球 50 大热门 AI 工具中,ChatGPT 的访问量遥遥领先,位居第一。在整个 AI 对话机器人中,ChatGPT 的访问量占比高达 76.31%。 今天在 GPT Store 正式发布之后,谷歌最害怕的事情可能要出现了—— ChatGPT 巨大的流量池,可能会通过 GPT Store 改写互联网流量的分配格局。 与 App store 商品货架逻辑最大的不同是,打开 GPT Store,首先看到的是一个巨大的搜索框,看起来更像是一个“ AI 搜索引擎”。用户可以直接在此搜索关键词,支持中文搜索。在 AI 搜索框下方,才是 GPT Store 的分类检索货架:包括热门精选、DALL-E 绘画、写作、创作、调查分析、编程、教育、生活方式等多个分类。GPTs 目前按照热度排序,使用用户越多,就越容易得到推荐,并且每周都会上新。 目前官方推荐的热门 GPTs 为: “ AllTrails ”的个性化路线推荐 通过“ Consensus ”搜索并综合 2 亿篇学术论文的结果 通过可汗学院的“ Code Tutor ”扩展编码技能 使用“ Canva ”设计演示文稿或社交帖子 通过“ Books ”查找下一本读物 使用“ CK-12 Flexi ” AI 导师随时随地学习数学和科学 在 GPTs 的名字后面附有开发者的网站,并且可以直接跳转,这将成为一个重要的流量入口。 GPTs 的用户越多,网站的曝光量就越大。 同时,从对话结果来看,与传统的搜索引擎相比,GPTs 大大提高了搜索的精准度。比如,当打开 AllTrails,让其推荐“纽约市附近的轻松徒步旅行路线”(一个预设的 Prompt),它会给一个长长的、带有图片展示的详细路线规划,并且可以直接跳转到第三方网站。越早开发、使用人数越多的 GPTs,将会获得早期的流量红利,会对广大的开发者形成巨大的吸引力。 或许,GPT Store 将直接挑战传统搜索引擎。未来互联网的搜索开关,很可能会从搜索引擎,慢慢迁移到 GPT Store 等生成式 AI 的对话入口。 不仅仅是一个 Store 抢夺 AI 时代的流量入口,OpenAI 终于迈出了第一步。 在移动互联网时代,App store 曾助力苹果构建强有力的护城河,并让苹果公司在非常长的时间里稳坐第一大科技公司的宝座。GPT Store 会是下一个 App Store 吗?
CES 2024第一天的重要发布:AI PC、AI 汽车、AI 电视 DoNews1月12日消息,科技界一年一度的盛事 – 国际消费电子展 (CES) – 盛大开幕。Counterpoint 研究团队在拉斯维加斯现场和线上两路密切关注展会动态。以下是我们在CES 第一天总结的五大最引人注目的亮点报导: AI PC 成为主角 NVIDIA 最新显卡搭载更具性价比的端侧 AI 功能,为游戏玩家带来全新体验,而 AMD 则推出了开创性的 Ryzen 8000G 系列处理器,首次将 NPU 引入了台式机。英特尔在展台上召集了来自 Dell、联想、惠普和微软等计算机巨头的行业领导者,共同宣告 AI 计算机即将在今年全面上市,引发轰动。 业界预计,PC 向 AI 方向转型将带来更高的换机率。Counterpoint 研究副总裁 Peter Richardson 认为,这是PC 时代的新篇章。 “很多厂商都在大谈游戏性能,尤其是传统的图形处理能力。但我们也看到了 AI PC 的能够带来什么。本地推理显然将在整个 GenAI 应用领域带来颠覆性变革。即使这不是一个全新 PC 时代的开端,至少也是 AI 硬件成为标准配置的新篇章。” 全球首款 GenAI 乘用车 大众汽车和 Cerence 联合推出了全球首款 Gen AI 乘用车,集成 ChatGPT 提供了无与伦比的车内体验。Counterpoint 研究副总裁 Neil Shah 认为,这不仅仅是增强语音控制,而是进一步巩固了汽车与驾驶者的纽带。 显示行业的技术突破三星的透明 MicroLED 屏幕和 LG 的 OLED T 重新定义了电视体验。LG 产品即将上市,有望为超高端细分市场带来革命性的家庭娱乐体验。 AI 电视树立新标准三星搭载 NQ8 AI Gen 3 处理器的电视和 LG 涵盖多种设备的综合 AI 战略都展示了在内容提升技术方面取得的进步。 氢动力燃料点燃梦想 博世汽车的氢燃料电池动力系统投入生产,现代汽车公司也推出了涵盖生产、储存、运输和利用氢燃料电池的综合战略,这一技术再次成为焦点。CES 2024第一天的重要发布:AI PC、AI 汽车、AI 电视© 由 DoNews 提供 Counterpoint 研究副总裁 Neil Shah 认为虽然存在挑战,但氢燃料电池作为标准配置的可能越来越接近现实。 --- 本帖转自DoNews
微软正式超越苹果 成为全球市值最高的公司 美股周四早盘,微软市值正式超越苹果,成为全球市值最高的公司。微软一度涨2%,盘中市值达到2.89万亿美元,苹果则为2.88万亿美元。不过,目前二者股价仍在剧烈波动之中,“市值之王”头衔随时可能再度易主。 由于需求担忧加剧,苹果在2024年迎来了多年来最糟糕的开局,多家华尔街投行调降了这家iPhone制造商的评级。相比之下,微软在人工智能(AI)领域的领先优势吸引了投资者。在这种背景下,微软市值超越苹果并不令人意外,投资者也早就在等待这一时刻了,这也是自2021年以来苹果市值首次低于微软。 去年12月14日,苹果公司的市值达到3.081万亿美元的峰值,该公司股价去年累计上涨约49%,这低于微软59%的涨幅。 目前,华尔街对微软更为看好。该公司没有“卖出”评级,近90%关注该公司的投行建议买入该股。 而苹果有两个“卖出”评级,只有三分之二的分析师将该公司评级为“买入”。 杰富瑞分析师本周表示,iPhone在华销量在2024年的第一周下降了30%,这表明iPhone面临着越来越大的竞争压力。 苹果公司的新款混合现实头戴式设备将于2月2日开始在美国发售,这是苹果自2007年推出iPhone以来最大规模的产品发布。不过,瑞银在周一的一份报告中估计,Vision Pro的销售对苹果2024年的每股收益“相对无关紧要”。 苹果还在努力应对其智能手表可能被暂停销售的问题,此前美国贸易监管机构以涉嫌侵犯专利为由对该产品下达禁令。上个月,美国一家法院在考虑苹果公司提出的推翻禁令的请求之际暂停了上述禁令。 不过,以预期收益来衡量的话,这两只股票的价格看起来都相对昂贵。LSEG的数据显示,苹果目前的预期市盈率为28倍,远高于过去十年19倍的平均水平;微软目前的预期市盈率约为31倍,同样高于过去十年24倍的平均水平。
盖茨对话OpenAI奥特曼:AI算力或会跃升10万倍 当地时间周四(1月12日),微软联合创始人比尔·盖茨在他的个人博客上放出了他与OpenAI首席执行官山姆·奥特曼的一段对话,两人的谈话主要围绕着人工智能(AI)的监管和使用。在谈话中盖茨承认,当ChatGPT问世时,就连自己都对它的出色表现感到惊讶。“我没想到ChatGPT会变得这么好…因为我们甚至不明白为什么它会选择‘说’什么。” 奥特曼指出,“这有点类似于人类的大脑,我们不知道哪个神经元在做什么。” 奥特曼在播客节目时表示,人工智能将引发人类历史上“最快”的一次技术革命,人类可能还没有准备好以多快的速度适应这种变革。 奥特曼预计,这项技术将迅速发展,使系统的计算能力达到GPT-4的10万倍或100万倍。 他指出,“也许事实并非如此,但如果我们是对的,这项技术就像我们想象的那样发展,它将影响社会、地缘政治力量平衡,以及很多事情。” 如何监管 盖茨在谈话中表达了他的担忧,那就是人工智能将“迫使我们以前所未有的速度适应这次变革”。 如何监管人工智能是此次盖茨和奥特曼讨论的一个正题,这也是世界各国政府目前都在努力解决的一个问题。 长期以来,奥特曼也一直在谈论人工智能监管的必要性。奥特曼认为,可能需要对世界上少数几个最强大的系统进行监管。 这位OpenAI首席执行官指出,监管核武器的国际原子能机构(IAEA)是一个可以效仿的监管模式,奥特曼建议对这些人工智能模型的检查可以学习IAEA检查核武器系统的那一套方式。 “我觉得这是可能的。我以前不太确定,但我在访问了世界各地,并与许多需要参与这项计划的国家元首进行了交谈后,几乎得到了普遍的支持。” “这并不能解决人工智能的所有问题…但我认为这可以帮助我们应对最大的一层风险。”
英特尔正将AI PC引入汽车领域 极氪为首个搭载新芯片公司 几个月前,Intel的首席执行官宣布将在“一切”中加入人工智能,如今我们开始清晰地看到它首次应用的领域。现在该公司宣布了面向汽车领域的AI聚焦芯片,被称为“第一代AI增强软件定义车辆系统芯片”。此外,Intel还宣布收购了一家能源管理公司,并着手推动电动汽车电池功率的标准化。在处理与Nvidia和AMD竞争的过程中,Intel正加倍投入汽车业务,力求成为推动人工智能繁荣的处理器和硬件市场的领导者。该公司认为,汽车将成为下一个伟大的软件平台,因此推出了旨在增强汽车内体验的新汽车芯片。 首家同意在其汽车中安装这些芯片的公司是中国吉利旗下的Zeekr,首批搭载Intel AI硬件的Zeekr车型将于今年晚些时候上市。 “我们将AI PC引入汽车领域,”Intel汽车部门副总裁兼总经理杰克·威斯特在上周与记者交流时表示。然而,他随后提醒说:“但我们不能简单地把个人电脑放入汽车中。我们知道汽车制造商需要重新设计他们的汽车,正如我之前提到的,以实现软件定义。”该公司计划推出一系列用于未来软件定义车辆(SDV)的片上系统(SoCs),首批将于2024年底推出。Intel没有透露除Zeekr之外的其他汽车客户,但表示正在与多家原始设备制造商(OEMs)积极洽谈。 汽车行业面临着一系列独特的挑战,试图在电动汽车大规模普及和更先进软件演进的背景下将越来越复杂的计算机塞进汽车中。尽管“车辆成为轮子上的智能手机”已经成为陈词滥调,但这也是事实。 然而,威斯特表示,构建以软件为定义的车辆的努力仍有很长的路要走,主要是因为Intel尚未完全发挥其作用。“目前还没有人真正在正确地做软件定义,”他说,“我们有一种独特的视角和一套独特的能力,我们认为可以帮助该行业使其车辆真正实现软件定义。” Intel表示,其SoCs已经应用在5000万辆汽车上,为信息娱乐显示和仪表盘供电。从Zeekr开始,公司将向各个汽车制造商阐述其AI增强芯片如何帮助推动软件定义汽车的新时代。 搭载Intel AI芯片的汽车将拥有更出色的语音助手、改进的视频会议功能,以及后排乘客的视频游戏选择。威斯特表示,与其在多个菜单和子菜单中翻找特定功能的开关,不如直接告诉你的汽车去执行。增强的安全功能,如用于无需双手驾驶的驾驶员监控系统,也是一个可能的方向。搭载Intel AI系统的汽车甚至可以“主动启用”驾驶员已关闭的安全功能
2024 CES:宝马携生成式人工智能和增强现实技术亮相 在2024年国际消费类电子产品展览会(CES)上,宝马集团展示了宝马全新的数字化科技,为现场观众揭秘集团人机交互发展方向。现场观众将有机会在驾乘过程中亲身体验增强现实眼镜带来的乐趣,并与BMW智能个人助理互动(亚马逊Alexa语音助手提供技术支持),实现人车交互的快速响应和操作指导。 宝马集团负责研发的董事韦博凡先生表示:“宝马不仅是终极驾驶机器的代名词,也是极致数字体验的代表。在此次展览会上,我们将呈现更为丰富的数字化内容和体验。当然,我们还将着眼未来,实现增强现实技术的完美融入,并在人机交互中展示强大而可靠的人工智能技术。” 迎接未来可穿戴设备——通过XREAL Air 2增强现实眼镜提升驾驶体验 在CES展上,宝马集团将为观众首次展示如何使用增强现实眼镜提升驾驶体验。用户可以在驾车穿越拉斯维加斯时亲自体验配备增强现实技术(AR)的眼镜。戴上眼镜之后,将直观感受到“XREAL Air 2”如何将导航指令、危险警告、娱乐内容、充电站信息以及停车情况等功能以可视化的方式完美融入到真实环境中。这一科技基于高度集成的软件架构打造,将驾驶体验、信息娱乐数据与来自车辆电子电气系统、BMW云端的相关数据进行整合,并通过硬软件的完美融合,为客户提供全面的数字化交互体验。未来几年内,随着技术的进步和更为经济实惠的入门级产品的推出,AR和混合现实(MR)设备将变得越来越受欢迎。未来,AR和MR设备与车载显示屏相互补充,将为驾驶员和乘客提供更加丰富的信息内容,进一步提升人车交互的情感化体验。 自2008年以来,宝马集团一直致力于AR/MR技术的研发,并在研究项目中探索佩戴式显示器的可能应用场景。宝马工程师携手开发伙伴,首次成功地向行驶车辆内的乘客展示了稳定的增强现实和混合现实技术。即使在转弯、路面颠簸或加速等复杂的驾驶情况下,所显示的图像依然可以清晰且准确地反应当下环境。这一切的实现离不开AR/MR设备的跟踪系统与车辆传感器数据的精准连接。宝马集团多年来一直在积累AR/MR设备方面的经验,同时积极与公众分享最新成果。在日新月异的车辆相关扩展现实(XR)应用领域,宝马集团近年来已向专利局提交了近70项发明专利。2024 CES宝马携车规级生成式人工智能和增强现实技术亮相-图2© 由 豪车事(车市号) 提供 宝马集团以其在数字技术领域的卓越表现(例如推出BMW数字钥匙Plus)而广受赞誉,而且一直是推动数字领域创新标准化的引领者。宝马集团期盼能够与更多合作伙伴在AR/MR领域展开合作,共同树立消费电子行业的XR设备与车辆相连接的行业标杆。 基于Alexa大语言模型(LLM),BMW智能个人助理将成为你的汽车专家 宝马集团一直致力通过与更多合作伙伴合作为客户带来创新的未来出行体验。目前,基于亚马逊Alexa大语言模型(LLM,Large Language Model)提供的生成式人工智能技术,宝马集团正在打造全新一代BMW智能个人助理。在此次CES上,宝马集团演示了基于大语言模型打造的全新语音助手。全新BMW智能个人助理化身为一位宝马汽车专家,为驾乘人员提供更人性化的帮助,及时解答有关车辆的疑问。无需动手,通过语音便可实现人车智能化交互,为用户带来更懂你的情感化数字体验。 大语言模型是一种以高水平处理人类语言并生成相应答复的人工智能模型。如今,通过与合作伙伴不断测试并持续迭代,宝马集团正在积极探索并推进这一技术在BMW车型上的应用,旨为驾乘人员带来更加安全、可靠和智能的交互体验,让车辆更懂用户。 自2018年BMW智能个人助理首次问世以来,语音交互始终是BMW操作系统中的核心功能。语音交互在带来便捷的同时,也更好地秉承了宝马以驾驶员为中心的理念,让驾驶员将注意力更多地集中于驾驶。随着大语言模型的加持,即将到来的全新BMW智能个人助理将会提供更为强大的功能,并会针对中国市场的用户需求带来更多专属化的智能交互体验,进一步展现宝马“悦人身心,更动人情怀”的豪华电动出行体验。
探索AI与AR的最强结合!雷鸟X2 Lite AR眼镜亮相CES 2024 日前CES 2024在美国拉斯维加斯正式开幕,AI是今年最大的主角,各种设备都加入了大模型完成蜕变。 雷鸟创新也在展会亮相,并推出了新一代双目全彩MicroLED光波导AR眼镜雷鸟X2 Lite(海外名:RayNeo X2 Lite),搭载高通骁龙AR1平台,并且加入大模型语音助手Rayneo AI,为用户带来前所未有的“AI+AR”体验。雷鸟创新创始人兼CEO李宏伟指出,“AI大模型会带来新场景和新产品,而AR眼镜则是AI的最佳载体。” 雷鸟X2 Lite是雷鸟创新发布的第二代双目全彩MicroLED+衍射光波导 AR眼镜,搭载雷鸟自研的新一代全彩MicroLED光引擎,光机体积进一步压缩,外观更加轻薄小巧。 整机重量仅约60g,较上一代减少了接近50%,是目前最轻便的双目全彩AR眼镜之一。 产品形态上,雷鸟X2 Lite采用无线一体化设计,外观与普通眼镜几乎无异,可轻松、自然地融入到生活当中,佩戴舒适不违和。 支持全彩3D空间显示、1500nits+峰值入眼亮度和超高透光率,可兼顾全场景使用需求。硬件方面,雷鸟X2 Lite搭载的高通骁龙AR1芯片是高通首款面向轻薄型智能眼镜打造的专用处理器,大幅优化了功耗,并集成了高通第三代 NPU,在图像增强、语音交互、图片搜索等方面均有明显优势。 得益于此,雷鸟X2 Lite可以化身为用户私人智能助理,带来全新的“AI+AR”体验。 内置的大模型语音助手Rayneo AI可将系统语音助手与AI大模型能力进行无缝融合,带来自然、智能的AI体验,能实现多轮自然语言对话、行程规划、便捷百科问答、头脑风暴等多项能力。 雷鸟X2 Lite还支持AI辅助翻译、3D空间导航、第一人称视角影像创作等功能。凭借优秀的产品性能和体验,雷鸟X2 Lite在CES 2024受到了全球媒体、科技产品爱好者和行业高度关注和好评。 在AR光学显示、AI大模型和芯片的核心技术逐渐成熟的背景下,消费级AR眼镜正迎来市场爆发的临界点。作为国内销量第一的消费级AR品牌,雷鸟创新将不断技术革新,为全球用户带来更具创造性的真AR体验。
AI 助力微软发现新材料:80 小时完成 20 年筛选任务 微软和太平洋西北国家实验室(PNNL)合作,借助 AI 力量识别出新材料,应用在电池中,最多可以减少 70% 的锂金属使用量。AI 助力微软发现新材料:80 小时完成 20 年筛选任务© 由 IT之家 提供图源:微软 现有锂电容易过热和起火,而且提取过程需要大量的水和能源,因此对环境有负面影响。 微软和 PNNL 借助人工智能,筛选了 3200 万种潜在材料,并在 80 小时时间内将名单缩小到 23 种,其中 5 种是已知材料。团队表示如果使用传统方法获取这些材料,这个过程将耗时二十多年。微软研究院微软量子雷德蒙德(QuArC)小组负责人 Krysta Svore 表示: 我们需要把未来 250 年的化学材料科学压缩到未来 20 年,对吗?这是因为我们想要拯救我们的地球。从这些结果中可以看出,人工智能和高性能计算的结合能够加速科学发现。 PNNL 项目开发办公室主任、物理化学家 Karl Mueller 表示: 最重要的一点是我们获得新想法、新材料的速度。如果我们能看到这种加速度,我敢打赌,这是未来寻找这类材料的必经之路 这种候选材料简单地称之为 N2116,是一种固态电解质,危险系数较低,不容易爆裂和引发火灾。 科学家目前仍在研究剩余的 17 种潜在材料,寻找替代锂金属的最佳材料。 团队还利用生成式人工智能和高性能计算,让这一过程变得更简单、更快捷。 --- 本贴转自IT之家
ChatGPT爆火一年后站上CES汽车展台“C位” 大语言模型即将上车 ChatGPT在去年的“爆火”,瞬间盖过了元宇宙的风头,业界随即开始探讨其与汽车产业会碰撞出怎样的火花。 2024年CES开展当日,包括奔驰、宝马及大众等在内的多家传统车企,先后发布各自旗下基于AI大模型的智能座舱技术解决方案。一时间,ChatGPT占据了本届CES汽车展台的“C位”。“尽管ChatGPT打开了汽车智能化的快速升级之路,但短期内还无法对汽车行业产生质的影响。”对于ChatGPT的爆火,多位行业人士认为,从目前国内已宣布上车,及本届CES上各厂家展出的AI大语言模型技术解决方案来看,当下ChatGPT尚停留在智能座舱中自然语义交互这一较为狭小的应用场景。“对于汽车产业来说,将AI大模型运用于更受消费者关注的智能驾驶,乃至研发制造全过程,以达到降本增效、提供更为个性及安全的驾乘体验的愿景,方能对行业变革起到真正的推动作用。” 1月9日,在2024年的CES展会上,大众汽车展示了首批将人工智能大语言模型ChatGPT融合到IDA语音助手功能中的车型。未来,用户能够在配备IDA语音助手的大众汽车上随时随地访问人工智能数据库,并在驾驶过程中通过语音交互获取海量信息。根据大众汽车的设想,从今年二季度开始,大众汽车将成为首个标配ChatGPT功能的量产车品牌。 另外一个展台上,宝马带来了基于亚马逊Alexa大语言模型提供的生成式人工智能技术,并宣布全新一代BMW智能个人助理正在推进中。在宝马集团高层看来,大语言模型是一种以高水平处理人类语言并生成相应答复的人工智能模型,通过与亚马逊的合作,大语言模型“上车”后将可为驾乘人员带来更加安全、可靠及智能的交互体验,让车辆更懂用户。同为德系豪华品牌的奔驰,发布了搭载全新虚拟助手,基于AI和大语言模型的MB.OS车机系统,可提供更自然的语音反馈和对话,如系统听到“我饿了”的语音时,会自动推荐附近的餐馆。 相对而言,中国汽车品牌在大语言模型方面的布局要更早,且经历了“由浅至深”的发展进程。去年2月,突然“蹿红”的ChatGPT遇上智能化快速转型的汽车产业,尚未“做好准备”的汽车品牌首先选择从营销端入手,类似“假如把ChatGPT装进车里”的文案不断涌现。 随后集度汽车宣布将融合百度文心一言的全面能力,打造全球首个针对智能汽车场景的大模型人工智能交互体验,支持汽车机器人实现自然交流的能力。“文心一言技术上车,将进一步提升汽车机器人产品的自然交流能力。”集度CEO、极越CEO夏一平率先在汽车产业端抛出了ChatGPT的概念。 最近的一次大模型上车出现在吉利银河E8上,这款率先搭载了吉利全栈自研的“AI大模型”的新车,可实现0.23s极速响应,全时免唤醒、全画面可见即可说的功能,并支持全车多人同时对话。 至此,包括自主品牌集度、知己、长安、吉利、红旗、蔚小理,外资品牌大众、宝马、奔驰,以及阿里、华为、腾讯、科大讯飞、毫末、商汤科技等供应商,共同掀起了大模型的“上车潮”。 “车规级”大模型将何去何从? 车载语音助手,可被视为语言大模型的首次“上车”案例,但由于在实际应用时的交互规则、唤醒方式等相对单一,机械的执行逻辑造成“不懂我”的使用体验,其无法被称之为真正的“AI”。 语言大模型ChatGPT成为车端功能后,能够实现许多远超语音控制的新功能。其不仅可语音控制信息娱乐系统、导航和空调,甚至可以回答与用车无关的问题,且可以持续迭代、升级、丰富对话模型。“通过Cerence Chat Pro,大众汽车融合了车规级ChatGPT应用。这项功能不仅拥有无与伦比的灵活性,还能提供定制化的内容,而且便于操作,并始终将驾驶者的安全和功能的可用性放在首位。”大众合作伙伴,Cerence公司CEO Stefan Ortmanns表示。 时任百度智能驾驶事业群组(IDG)负责人的李震宇认为,语言大模型上车后,人车交互的方式会从“命令式”升级到“对话式”。其次,通过Transformer和BEV等新技术彻底重构自动驾驶技术栈,感知能力将获得代际感提升,加速纯视觉方案的成熟和普及。第三,未来的大模型还将走向多模态,塑造出完全自动驾驶的汽车机器人。 显然,除智能座舱外,“大模型”更为广阔的应用场景在于自动驾驶领域。在毫末智行CEO顾维灏看来,ChatGPT技术思路和自动驾驶认知决策的思路是一致的,人驾自监督认知大模型就是为了让自动驾驶系统能够学习到老司机的优秀开车方法,然后稳定地输出最优解。“实现GPT3到ChatGPT的龙门一跃最重要的是ChatGPT模型使用了‘利用人类反馈强化学习RLHF’的训练方式,更好的利用了人类知识,让模型自己能够判断其答案的质量,逐步提升自己给出高质量答案的能力。”顾维灏表示。 就当下而言,大模型“上车”的第一个阶段主要应用场景为智能座舱,且将以语音交互为核心;在自动驾驶DriveGPT场景下,以“自动标注”为首的应用可起到“排头兵”的作用,其为研发端实现了降本增效,而让用户切实感受到体验的提升,将成为第二个阶段的发展重点。 “对于用户来说,在使用相关功能的同时,会更加关注使用便利性和数据安全性。前者在于是否需要重新创新账户、下载新应用等,激活的过程是否无感;后者的核心为车辆数据、交互内容等有可能涉及到用户隐私安全,相关删除、保护逻辑将变得异常关键。”有业内人士分析称。
科学家创新技术用更少的GPU训练ChatGPT级别万亿参数模型 科学家们在世界上最强大的超级计算机上取得了巨大突破,仅使用其8%的计算能力,成功训练了一个与ChatGPT规模相当的模型。这项研究来自著名的Oak Ridge National Laboratory,他们在Frontier超级计算机上采用了创新技术,仅使用数千个AMD GPU就训练出了一个拥有万亿参数的语言模型。通常,训练像OpenAI的ChatGPT这样规模的语言模型需要一个庞大的超级计算机。然而,Frontier团队采用了分布式训练策略,通过优化并行架构,仅使用Frontier计算能力的8%就成功完成了这一任务。具体而言,他们采用了随机数据并行和张量并行等技术,以降低节点之间的通信,同时处理内存限制。 这项研究的结果显示,在1750亿参数和1万亿参数模型的情况下,弱扩展效率达到了100%。此外,这个项目还取得了这两个模型的强扩展效率分别为89%和87%。 然而,训练拥有万亿参数的大型语言模型始终是一个具有挑战性的任务。研究人员指出,这个模型的体积至少为14TB,而Frontier中的一块MI250X GPU只有64GB。他们强调,需要进一步研究和开发方法来克服内存问题。 在面临大批次大小导致的损失发散问题时,研究人员提出,未来关于大规模系统训练时间的研究必须改善大批次训练,并采用更小的每副本批次大小。此外,研究人员呼吁在AMD GPU上进行更多工作,指出目前大多数大规模模型训练都是在支持Nvidia解决方案的平台上进行的。尽管研究人员为在非Nvidia平台上高效训练大型语言模型提供了“蓝图”,但他们认为有必要更深入地研究在AMD GPU上的高效训练性能。 Frontier在最近的Top500榜单中保持其作为最强大超级计算机的地位,超过了Intel推出的Aurora超级计算机。这项研究为未来训练巨大语言模型提供了宝贵的经验和方法,同时也突显了分布式训练和并行计算在实现这一目标上的关键作用。
微软正在为 Windows 11 Copilot 添加一项新的图像AI功能 Windows Copilot 目前提供的功能很少,但这种情况很快就会改变。微软正在添加一项新功能,让你用户截取屏幕并要求人工智能进行解释。这项名为"添加屏幕截图"的新功能正在向公众推出,但不一定每个人都能使用。通过 Copilot 面板中的新"添加截图"按钮,您可以截取屏幕并直接上传到 Copilot 或必应面板。当截图上传到 Windows 11 上的 Copilot 时,你可以要求必应聊天讨论该截图。您可以询问与截图相关的任何问题。 这与 copilot.microsoft.com 或 Bing.com 聊天工具中现有的图片上传功能类似,但整合后更适合截图使用。在下面的例子中,我们要求 Copilot 解释回收站的截图,它很快就提供了简短的描述: 这是电脑桌面上回收站图标的图像。回收站是 Windows 操作系统的一项功能,允许用户在永久删除已删除的文件和文件夹之前将其暂时存储起来。由于 Copilot 支持 Microsoft Edge,因此其截图功能还允许你在截图上绘图或添加 Copilot 可以看到的特定说明。Windows Copilot 中的新截图功能 如果您能访问 ChatGPT-4 Turbo(正在向部分用户推出),可以要求 Windows Copilot 解释情绪,包括抽象图片中描述的情绪。这项功能仅适用于随机挑选的部分用户,但微软计划在未来几周内扩大推广范围。 微软强调,Copilot 是包括 Office 和 Windows 在内的所有产品的核心功能。 2024 年晚些时候,微软将在 Windows 硬件上添加一个专门的 Copilot 按钮,以"简化人们的计算体验"。 微软希望 Copilot 无处不在。这对任何人来说都不应该是秘密,我们在以前的报道中也强调过这一点。在一篇博客文章中,微软最近确认了在 Windows 键盘上添加 Copilot 键的计划。在旧硬件上,你可以通过 Win+C 快捷键访问 Copilot。 微软将这一变化作为 Windows 键盘近三十年来最重大的升级进行宣传,并将其与 Windows 开始键的引入相提并论。 微软表示:"Copilot 将成为 PC 上人工智能世界的入口,"并确认了新一代硬件将配备 Copilot 键。
科学家破解经典物理学之外的磁悬浮之谜 2021 年,土耳其科学家 Hamdi Ucar 发现了一种新的磁悬浮形式,即快速旋转的磁铁会使附近的磁铁悬浮起来。拉斯穆斯-比约克教授及其团队复制并研究了这一违背经典物理学的现象。他们发现,悬浮的磁铁与旋转的磁铁对齐,形成了一种类似于陀螺旋转的平衡状态。丹麦科技大学(DTU)的科学家们证实了新发现的磁铁悬浮现象的基本物理学原理。 2021 年,一位来自土耳其的科学家发表了一篇研究论文,详细介绍了一项实验:将磁铁连接到电机上,使其快速旋转。当这个装置靠近第二块磁铁时,第二块磁铁开始旋转,并突然悬停在几厘米外的固定位置。 虽然磁悬浮并不是什么新鲜事--最著名的例子可能是磁悬浮列车,它依靠强大的磁力来提升和推进--但这个实验却让物理学家们大惑不解,因为这一现象并没有被经典物理学所描述,或者至少没有被任何已知的磁悬浮机制所描述。 使用 Dremel 工具以 266 Hz 的频率旋转磁铁演示磁悬浮。转子磁铁为 7x7x7 立方毫米,浮子磁铁为 6x6x6 立方毫米。这段视频展示了研究中描述的物理学原理。资料来源:德国技术大学。 不过,现在是时候了。DTU 能源学院的教授拉斯穆斯-比约克(Rasmus Bjørk)对乌卡的实验非常感兴趣,于是与硕士生约阿希姆-赫尔曼森(Joachim M. Hermansen)一起复制了这个实验,同时弄清了实验的具体过程。Rasmus Bjørk 说,复制很容易,使用现成的元件就能完成,但其中的物理原理却很奇怪: "磁铁靠近时不应该盘旋。通常,它们要么相互吸引,要么相互排斥。但事实证明,如果旋转其中一块磁铁,就能实现悬停。这就是奇怪的地方。"他说:"影响磁铁的力不应该因为你旋转其中一块磁铁而改变,所以运动和磁力之间似乎存在耦合。"这些结果最近发表在《应用物理评论》杂志上。 多项实验证实物理原理 实验涉及几块不同大小的磁铁,但原理是相同的:通过快速旋转一块磁铁,研究人员观察到另一块被称为"浮动磁铁"的磁铁如何以相同的速度开始旋转,同时迅速锁定在一个位置上,保持悬停状态。他们发现,当浮子磁铁锁定位置时,它的方向靠近旋转轴,朝向转子磁铁的同类磁极。因此,举例来说,浮子磁铁的北极在旋转时一直指向固定磁铁的北极。 这与根据磁静力学定律所预期的情况不同,该定律解释了静态磁力系统如何运作。然而,事实证明,旋转磁体之间的磁静力相互作用正是产生浮子平衡位置的原因,这也是该研究的合著者、博士生弗雷德里克-L-杜胡斯(Frederik L. Durhuus)通过模拟这一现象发现的。他们观察到磁铁大小对悬浮动力学的重大影响:较小的磁铁由于惯性较大,悬浮时需要更高的旋转速度,而且浮力越大。 "原来,浮子磁铁想与旋转的磁铁对齐,但它的旋转速度不够快。只要保持这种耦合,它就会悬停或漂浮,"拉斯穆斯-比约克说:"我们可以把它比作一个旋转的陀螺。如果不旋转,它就不会站立,而是通过旋转锁定位置。只有当旋转失去能量时,重力--或者在我们的例子中磁铁的推力和拉力--才会大到足以克服平衡。"
迷你AI模型TinyLlama发布:高性能、仅637MB 经过一番期待,TinyLlama项目发布了一款引人注目的开源模型。该项目于去年9月启动,开发人员致力于在数万亿标记上训练一款小型模型。在经历了一些辛勤工作和一些挫折之后,TinyLlama团队如今发布了这个模型。这个模型有着10亿个参数,大约在训练数据上进行了三个时代,或者说是通过训练数据的三个循环。TinyLlama的最终版本在性能上超越了现有规模相当的开源语言模型,包括Pythia-1.4B、OPT-1.3B和MPT-1.3B。这标志着一个里程碑,为语言模型领域的发展带来了新的可能性。 这款模型不仅仅是规模小,而且其优越性能使其成为部署在边缘设备上的理想选择,因为它仅占用637MB的存储空间。更令人振奋的是,TinyLlama还可以用于辅助更大型模型的推测解码,这为那些依赖大型模型的任务提供了更为灵活的解决方案。前特斯拉高级AI总监、现任OpenAI的Andrej Karpathy的教程被引用,强调了TinyLlama在这一领域的应用前景。 TinyLlama的团队在设计上将其打造成Meta开源语言模型Llama2的紧凑版本,甚至拥有相同的架构和分词器。这意味着它可以轻松地嵌入到基于Llama构建的项目中,为研究人员和从业者提供了一种“有吸引力”的平台,以进行语言模型研究。尽管规模小巧,TinyLlama展现出了在多领域语言模型研究中的广泛用途。 在实际应用中,苹果的机器学习研究科学家Awni Hannun通过使用MLX(苹果的开源训练工具套件)在8GB Mac Mini上对TinyLlama进行了LoRA微调,这显示了这款模型在各种场景下的灵活性和可塑性。团队表示,“凭借其紧凑的架构和出色的性能,TinyLlama可以在移动设备上实现最终用户应用,并成为测试与语言模型相关的创新想法的轻量级平台。” 随着TinyLlama的发布,团队表示他们计划推出“改进版本”,其中包括扩展其性能和多功能性的计划。这为未来的语言模型研究提供了更多的可能性。 这也是近来小型AI模型崛起的一个例证。一些公司开始关注制作规模相对较小但性能优越的模型,以降低硬件运行成本。微软的Phi项目就是其中之一,其Phi-2模型在尺寸上超过了25倍的模型,展现了小型模型的潜力。谷歌也宣布将推出的Gemini Nano,这是其新旗舰基础模型的小型版本,预计在尺寸上约为32亿参数。 这些小型模型在训练中使用更大模型生成的合成数据,从而在性能上表现出色。这一趋势正在推动着人工智能领域的创新,也使得许多小型模型在性能上能够与像OpenAI的GPT这样的前沿模型相媲美。 项目网址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fgithub.com%2Fjzhang38%2FTinyLlama&urlrefer=7268238b8a011259da448164ecd92c5a
苹果大模型,不藏了 岁末年初,苹果加快了在大模型领域的步伐。 上个月,苹果先是推出了名为Ferret的多模态大语言模型,图像处理技术堪称惊艳;而后又发布了一篇题为《闪存中的大型语言模型:在有限内存下高效的大型语言模型推理》的论文,直指大模型落地iPhone等“内存有限”设备的方法。进入新年,Siri助手将搭载生成式模型Ajax的消息,再次不胫而走。 去年六月和九月的两次重要发布会,苹果分别掏出了早有传闻的XR项目和iPhone系列的惯例年更,前者市场反响平平,后者挤牙膏被批像是被“卡脖子”了,硅谷All in大模型之时,苹果官方对人工智能这一年度热词始终闭口不谈。 公司CEO库克曾解释道,苹果有计划在更多产品中加入AI,但要“深思熟虑”。 现如今,也许是想好了,也许是技术突破了,留了一手的苹果,终于不藏了。 iPhone的AI时刻,来了? Siri助手AI化其实早有预兆:去年七月份,彭博社发文称苹果内部正在暗中测试一款对标OpenAI和谷歌的生成式AI工具,暂定名“Apple GPT”。 因使用Google JAX框架进行构建,Apple GPT的开发框架被命名为Ajax。 当时的消息称,苹果LLM技术的最大用武之地,便是整合在Siri内部,让语音助手以更为智能的方式协助用户。 现在,更多细节被透露——苹果发布的论文称,这项将大语言模型放在闪存中优化运行的技术,较传统运行方法提高了4-5倍(CPU)和20-25倍(GPU)的推理速度。 把大象(大模型)装进冰箱(手机)里的方法,来了:先减少闪存传输的数据量,再提高每次传输的吞吐量。先看框架:以手机为例,平时购机时的【12+256G】、【16+512G】,12/16为运行内存,256/512为储存空间。以此类推绝大部分移动设备存储结构,运存空间小,但读取速率高(DRAM 10GB/s);储存空间大,但读取速率相对较低(Flash Memory 1GB/s)。 一般来说,大模型的推理阶段,模型加载、分析数据需要直接占用运存,而目前主流手机市场最大的16GB运存,也并不能完全满足大模型所需的空间:模型大小>手机内存。 苹果给出的解决方案是“先减少闪存传输的数据量”——把大模型完全体放在空间更大的储存中,运行时只调用必要数据进入运存。 这并非一个简单的搬箱子过程,如何正确筛选出所有必要数据,以及如何把数据快速由闪存传输到运存,是两个需要解决的问题。 方法之一被命名为sliding window(滑窗):假设大模型正在处理Once upon a time there was a kid who had a dream这句话,在处理“Once upon a time there”这段字符的时候,图中上半部分的青色格子(神经元)处于激活状态;而当处理字段变到“upon a time there was”(往后推进了一个字符),图中下半部新启用了蓝色格子,并删除了了此前青色部分的几个格子(以粉色标注),其余青色保持不变。 这就是sliding Window的核心思想:查缺补漏,多退少补。在大模型运行过程中,只保留一开始就激活的神经元,后续的每次运算,都基于前一次参数进行删除和添加,省去了一部分重复工作。 当然,这种预设也并非没有问题,知乎博主@Civ发文称,sliding window可用的核心假设是大模型在处理相邻数据时前后具有相似性,但这个相似性苹果没有展开论证。 再者是传输:将多次传输的数据拼接后一次性读取,保持连续完整的“数据”,避免多次复制拖慢时间;另外,提前预留出一个较大的空间(较大,但仍远远小于模型整体占用),避免在数据传输过程中,因多次增加空间而加大设备的计算量。此前,蓝媒汇在《AI PC发布,联想真的想通AI了吗?》中提及,限制大模型进入移动端的瓶颈就是模型占地太大,影响设备本身正常运转,或者塞不进去导致无法运行。 苹果这项新研究的诸多技术细节,都在指向空间的压缩,包括数据体量,也包括运算所占用的算力。 发力多模态 之前有个段子(也可能是真事儿),说是大模型搞不定人机验证,是因为AI被设定不能说谎,所以无法选择“我不是机器人”。 去年十月份,苹果还是以论文的形式公布了一项研究成果:Ferret大模型,自己搞定谷歌人机验证了。遥遥领先于GPT4。 不久之前,苹果公布了更多Ferret模型的细节、功能。图/苹果 Github Ferret模型介绍 和GPT4相比,Ferret的领先之处在于,它不仅能准确识别并处理图像内容,还能用算法区分图片中各种元素(人、物体等等),并根据用户指令找出对应元素。这种多模态理解能力,使得Ferret能够同时处理用户输入的图像和自然语言,并且由于其算法能够将图像中的元素准确拆分、定位,Ferret可以准确理解如“图片右上角”、“靠近沙发”这类指令。相比于卷疯了的自然语言处理,这种基于图像的交互使得信息更加直观。最近一次更新,苹果提供了Ferret的7B和13B两个版本,并创建了包含了1.1M个样本的GRIT的数据集以丰富空间知识,进一步增强功能。 考虑到苹果相当成熟的产品生态以及巨量用户规模,AI落地带来的换机潮等收益,或将极为可观。 2023年被称为是AI的iPhone时刻,现在,苹果的AI时刻大约也快到了。
3DM 3DM 谷歌制定新“机器人守则” 确保科幻片不会成真 谷歌旗下的 DeepMind 机器人团队公布了三项新进展,称这将帮助机器人在实验室外做出更快、更好、更安全的决策。其中一个包括一个通过“机器人守则”收集训练数据的系统,以确保你的机器人办公室助理可以为你取更多的打印纸,但不会攻击碰巧挡道的人类同事。谷歌的数据收集系统 AutoRT 可以使用视觉语言模型 (VLM) 和大型语言模型 (LLM) 协同工作来了解其环境,适应不熟悉的长井,并决定适当的任务。 《机器人守则》的灵感源自阿西莫夫的《机器人三定律》,它被描述为一套“以安全为中心的提示”,指导操控机器人的 AI 避免选择涉及人类、动物、尖锐物体甚至电器的任务。 为了提高安全性,DeepMind 对机器人进行了编程,如果其关节上的力超过一定阈值,就会自动停止。机器人包含一个实体的终止开关,人类操作员可以使用它来立即关闭机器人。在七个月的时间里,谷歌在四栋不同的办公楼中部署了由 53 台 AutoRT 机器人组成的车队,并进行了 77,000 多次试验。一些机器人由人类操作员远程控制,而另一些机器人则根据脚本或使用谷歌的机器人变压器(RT-2)AI 学习模型完全自主地操作。试验中使用的机器人以实用性为主,只配备了摄像头、机械臂和移动底座。 “对于每个机器人,系统都使用 VLM (AI视觉语言模组)来了解其环境和视线内的物体。接下来,LLM (AI大型语言模组)会建议机器人可以执行的一系列创造性任务,例如“将零食放在台面上”,并扮演决策者的角色,为机器人选择合适的任务来执行。
Github爆火AI语音克隆项目OpenVoice,精准进行声音复刻 最近,Github上的一个名为OpenVoice的AI语音克隆项目爆火,该项目由myshell-ai开源,仅开源了不到三周,就有了6.1k的star。 OpenVoice仅需参考说话者的短音频片段,即可复制其声音并生成多种语言的语音。这一技术不仅实现了对音色的准确克隆,还在语音生成过程中提供了对情感、口音、节奏、停顿和语调等语音风格的精细控制。OpenVoice特色功能包括: 准确的音色克隆:OpenVoice突破性地能够准确克隆参考说话者的音色,并在多种语言和口音中生成自然流畅的语音。这项功能为语音合成领域注入了新的活力,使用户能够在生成语音时更好地控制音色的细微差异,实现更加个性化的语音合成体验。 灵活的语音风格控制:除了音色克隆,OpenVoice还提供了灵活的语音风格控制,涵盖情感、口音、节奏、停顿和语调等多个方面。用户可以根据需求调整这些参数,定制出符合特定场景或情感需求的语音。这使得OpenVoice不仅是一项技术突破,更是为用户提供了更多创造性和实用性的可能性。 无差异的跨语言语音克隆:OpenVoice引入了零射击跨语言语音克隆的概念,无需事先在庞大的训练数据集中包含生成语音的语言或参考语音的语言。这项特性使OpenVoice在多语言环境中表现出色,为全球用户提供了更加灵活和开放的语音合成解决方案。 OpenVoice的推出不仅将语音合成技术推向新的高度,更为用户提供了更广泛、更个性化的语音生成选择。该技术的开放源代码也为开发者提供了丰富的可能性,将在未来推动语音合成领域的创新发展。如欲深入了解OpenVoice的具体应用和效果,可参考项目的GitHub页面及相关示例。OpenVoice在GitHub页面:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Ftop.aibase.com%2Ftool%2Fopenvoice&urlrefer=0d733a0a813dafcd3fbd8dd29acde435 OpenVoice huggingface页面:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fhuggingface.co%2Fmyshell-ai%2FOpenVoice&urlrefer=5662e727f44ad1e363809b3228185a72 声音示例页面:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fresearch.myshell.ai%2Fopen-voice&urlrefer=b41f04069a6095e87f70f348d36df335 --- 本贴转自站长之家
谷歌研究团队推新AI方法SynCLR:从合成图像和字幕中学习视觉表征 近期,Google Research和MIT CSAIL共同推出了一项名为SynCLR的新型人工智能方法,该方法旨在通过使用合成图像和字幕,实现对视觉表征的学习,摆脱对真实数据的依赖。SynCLR的工作原理 研究团队首先提出了一个三阶段的方法。首先,在“合成图片字幕”阶段,他们采用大型语言模型的上下文学习能力,通过单词到字幕的转换示例,生成了大量的图片字幕。接着,在“生成合成图像和字幕”阶段,利用文本到图像扩散模型,生成了包含6亿张合成图片的数据集。最后,在“训练视觉表征模型”阶段,研究团队使用了掩蔽图像建模和多正对比学习,训练模型从合成数据中学到有意义的表征。 实验结果 研究结果表明,SynCLR在多个任务上取得了令人瞩目的成绩。通过与现有模型如CLIP和DINO v2进行比较,SynCLR在ImageNet-1K上的线性探测准确率以及细粒度分类和ADE20k上的语义分割任务上都表现出色。特别值得一提的是,SynCLR在以字幕为级别的细粒度上的优越性,为模型的可扩展性和在线类别增强提供了便利。 尽管SynCLR在合成数据上展现出了强大的性能,研究团队也提出了一些改进方向。其中包括使用更复杂的大型语言模型、优化不同概念之间的样本比例、探索高分辨率训练阶段等。这些改进有望进一步提升合成数据在训练人工智能模型中的效果。 项目网址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fgithub.com%2Fgoogle-research%2Fsyn-rep-learn&urlrefer=addff73b6d127f2113e40ba9546f41eb 论文网址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Farxiv.org%2Fpdf%2F2312.17742.pdf&urlrefer=6e2c065206f1aec007f3d42ce123606c --- 本贴转自站长之家
Windows 10 终止服务:将导致 2.4 亿台电脑沦为电子垃圾 根据Canalys发布的报告,随着用户准备进入新一轮换机周期,微软的Windows 11为陷入困境的个人电脑(PC)市场雪中送炭。但Windows10服务终止,可能让数亿台PC失去二次使用的机会,使其面临被丢弃填埋的风险。Canalys预计,随着用户寻求更新疫情时代的PC,以及新的AI PC的出现,2024年PC市场将恢复8%的增长。预装Windows 11的新款PC也将推动增长。但是,许多正在使用的设备无法达到微软最新操作系统所需的硬件要求,导致渠道无法翻新这些PC并开始其“二次生命”。随着PC市场趋于稳定,用户也准备好进入新一轮更新周期,此时Windows 11为渠道带来希望。57%的合作伙伴预计Windows10服务终止将影响客户在2024年的更新计划,其中三分之一的PC预计在未来的两年内更新。尽管渠道支持设备循环利用的能力不断增强,但合作伙伴将无法翻新和分销不支持Windows 11的个人电脑。微软的决定将使得行业的电子垃圾问题雪上加霜,这凸显操作系统厂商在IT设备循环利用模式中的作用。 Canalys预计,随着用户寻求更新疫情时代的PC,以及新的AI PC的出现,2024年PC市场将恢复8%的增长。预装Windows 11的新款PC也将推动增长。但是,许多正在使用的设备无法达到微软最新操作系统所需的硬件要求,导致渠道无法翻新这些PC并开始其“二次生命”。 Canalys统计数据显示,在微软宣布Windows 10官方停止支持的日期(2025年10月14日)前的将近两年时间里,大约五分之一的设备将因为与Windows 11操作系统不兼容而沦为电子垃圾,约为2.4亿台。如果这些设备都是折叠式笔记本电脑,将其垂直向上摞起来,高度将超过月球600公里。
Meta AI发布炸裂项目可将音频生成全身逼真的虚拟人物形象 Meta AI最近发布了一项引人注目的技术,他们成功地开发出一种能够从音频中生成逼真的虚拟人物形象的系统。 这个系统能够根据多人对话中的语音生成与对话相对应的逼真面部表情、完整身体和手势动作。这些虚拟人物不仅在视觉上非常逼真,而且能够准确地反映出对话中的手势和表情细节,例如指点、手腕抖动、耸肩、微笑和嘲笑等。项目及演示:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fpeople.eecs.berkeley.edu%2F~evonne_ng%2Fprojects%2Faudio2photoreal%2F&urlrefer=c70a6f458cf4da8bcc56f7f6875dfaf5 代码:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fgithub.com%2Ffacebookresearch%2Faudio2photoreal%2F&urlrefer=e47d4cc416d5e2fb46bc966d761c7a9e Demo:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fcolab.research.google.com%2Fdrive%2F1lnX3d-3T3LaO3nlN6R8s6pPvVNAk5mdK&urlrefer=17a6b4ba4efe2c16e58ffc9942b89fa9 这个系统的工作原理如下: 首先,Meta AI团队捕获了一组丰富的双人对话数据集,这些数据集能够提供逼真的重建。然后,他们构建了一个复合运动模型,其中包括面部运动模型、引导姿势预测器和身体运动模型。 在生成面部运动时,系统使用预训练的唇部回归器处理音频,提取与面部运动相关的特征,并利用条件扩散模型生成面部运动。 在生成身体运动时,系统根据音频自回归地输出每秒1帧的向量量化(VQ)引导姿势。然后,将音频和引导姿势输入到扩散模型中,以每秒30帧的速度生成高频身体运动。 最后,生成的面部和身体运动被传入训练好的虚拟人物渲染器,生成逼真的虚拟人物。 最终展示的结果是根据音频生成的全身逼真虚拟人物,这些虚拟人物能够表现出对话中的细微表情和手势动作。 这项技术的发布将为虚拟人物的创造和应用领域带来巨大的进步。无论是在游戏开发、虚拟现实还是电影制作领域,这种能够从音频中生成逼真虚拟人物的系统都将发挥重要作用。 Meta AI的成果再次展示了他们在人工智能领域的卓越能力和创新精神。他们不断推动着技术的边界,为我们带来了一个全新的虚拟人物生成的时代。我们可以期待在不久的将来,这种技术将成为我们生活中不可或缺的一部分。 --- 本贴转自站长之家
维基百科+大模型打败幻觉!斯坦福WikiChat性能领先GPT-4 斯坦福大学的研究人员利用维基百科数据训练了一个大模型,命名为WikiChat,通过优化和改进,成功解决了大模型的幻觉问题,并在事实准确性和其他指标上表现优秀。他们的最佳模型在新的基准测试中获得了97.3%的事实准确性,远远超过了GPT-4的66.1%。此外,WikiChat还在相关性、信息性、自然性、非重复性和时间正确性方面领先其他模型。论文地址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Faclanthology.org%2F2023.findings-emnlp.157.pdf&urlrefer=a5827854eb24ead8e9e4ac2c667cc782 项目代码:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fgithub.com%2Fstanford-oval%2FWikiChat&urlrefer=954290f18a5f36c370618cb5f44cf3ed 为了解决幻觉问题,研究人员采用了检索增强生成(RAG)的方法,并添加了几个重要步骤来进一步减轻幻觉,并改进对话性指标。通过这些优化,WikiChat在事实准确性方面比微调后的SOTA RAG模型Atlas高出8.5%。此外,研究人员还将基于GPT-4的WikiChat提炼成7B参数的LLaMA模型,这个模型在事实准确性方面能达到91.1%的高分,并且运行速度提高了6.5倍,能效更好,可以本地部署。 然而,解决大模型的幻觉问题并不容易。一般情况下,当检索不到相关信息或知识库中没有相关信息时,大模型会产生幻觉来填补空白。为了解决这个问题,WikiChat通过汇总和过滤检索到的信息,而不是直接生成响应。同时,研究人员还教导了LLM理解时间背景,以及在必要时让系统说「我不知道」。 通过结合大模型和维基百科数据,研究人员成功地提高了聊天机器人的性能。WikiChat的成功表明,维基百科数据在大模型训练中发挥了重要作用,通过检索增强生成的方法,可以有效解决大模型的幻觉问题,提高模型的事实准确性和对话性能。 --- 本贴转自站长之家
英特尔宣布成立新的人工智能公司 美国英特尔公司3日宣布与一家投资公司合作,成立一个新的人工智能公司Articul8 AI(以下简称Articul8),旨在为企业客户提供生成式人工智能服务。  英特尔在其官网发布声明介绍,该公司与全球投资公司“数字桥”合作,成立新的人工智能公司Articul8。新公司是一家独立公司,将为企业客户提供全堆栈、垂直优化和安全的生成式人工智能软件平台。   英特尔公司说,这家新的人工智能公司是在英特尔开发的知识产权和技术基础上建立的,其首席执行官将由英特尔负责数据中心和人工智能部门的前高管阿伦·苏布拉马尼扬担任。   英特尔公司首席执行官帕特·格尔辛格在声明中表示,凭借深厚的人工智能和高性能计算专业知识以及企业级的生成式人工智能部署,Articul8公司完全有能力为英特尔以及更广泛的客户和合作伙伴提供切实的商业成果。“随着英特尔在各地加速人工智能发展,我们期待着与Articul8的持续合作。”   生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。2023年以来,以ChatGPT聊天机器人程序为代表的生成式人工智能引发全球关注。各个科技巨头竞相加入大模型工具竞争赛道。比如,2023年2月,微软公司宣布向OpenAI公司投资130亿美元,并将GPT模型集成到其“必应”搜索引擎中;“元”公司发布大型语言模型LLaMA;谷歌公司于2023年12月推出生成式人工智能模型“双子座”。   投资成立Articul8公司的“数字桥”公司首席执行官马克·甘济表示,生成式人工智能是推动数字基础设施建设的关键力量,当前每个全球性公司都面临着将生成式人工智能集成到工作流程中的挑战。   不过,过去一年,美国人工智能爆发式发展,引发的伦理、监管等风险和担忧也愈加凸显。
Midjourney训练AI使用的艺术家数据库名单泄露引发争议 根据最新报道,用于训练Midjourney的生成式人工智能(AI)程序的艺术家数据库已泄露,引起社交媒体和艺术界的广泛争议。泄露的名单中包括一些知名艺术家,如Banksy、David Hockney等。 据悉,这份名单被称为“Midjourney风格列表”,其中包含超过16,000名艺术家的名字。除了著名的现代艺术家外,名单还包括2021年为医院创作绘画的六岁儿童等各个领域的艺术家。该列表详细指定了这些艺术家的时间段、艺术运动、媒介、流派以及与视频游戏软件相关的信息。尽管这份电子表格目前似乎已无法访问,但在互联网档案馆和2023年11月提交的法庭文件中仍然可以查看。这些文件是一个集体诉讼的一部分,由10名视觉艺术家于去年1月提起,指控DeviantArt、Midjourney、Stability AI和Runway AI侵犯版权,未经授权使用他们的作品来训练人工智能。 有关法庭文件的详细信息显示,Midjourney首席执行官David Holz在2022年2月首次发布了这份列表,他在Discord服务器上的消息中解释了如何使用这些艺术家的名字作为生成图像的文本提示。他明确表示这不仅仅是流派,还涉及艺术家的名字,总计达到4000多位,并覆盖了1000多种艺术风格。 在一些社交媒体截图中,Riot Games艺术家Jon Lam显示了Holz和其他Midjourney开发人员讨论数据库中至少包含4700位独立艺术家作品的消息。据透露,这些艺术家的名字是从Wikipedia和在线交易卡游戏Magic the Gathering中收集而来。此外,软件开发者Brad Templeton的消息警告Holz可能会在使用真实艺术家作品进行训练时面临“版权问题”。 除了已经提到的艺术家,名单中还包括Dan Flavin、Salvador Dalí、David Lynch、Anish Kapoor、Andy Warhol、Claude Monet、Cy Twombly、Damien Hirst、Frida Kahlo、Guerrilla Girls、Joan Mitchell、Joan Miró、Marcel Duchamp、Richard Serra、Jean-Michel Basquiat和Shepard Fairey等一些知名艺术家。 截至目前,Midjourney尚未回复Hyperallergic的评论请求,而这一事件也进一步引发了对未受监管的生成式人工智能发展的担忧,包括未来就业和版权侵犯的指控,促使了更多的诉讼和国会听证会。
AI透视眼!Wild2Avatar可逼真渲染视频中被遮挡的人物 在渲染移动人物的视觉外观时,面对摄像头视野被遮挡的问题是一项巨大的挑战。大多数现有研究在理想条件下渲染3D人物,要求场景清晰且无障碍。然而,在真实世界场景中,可能会有障碍物阻挡摄像头视野,导致人物出现部分遮挡,这使得这些传统方法无法应用。为了解决这一问题,著名人工智能教授李飞飞团队推出了Wild2Avatar,这是一种专为视频中被遮挡人物设计的神经渲染方法。 研究团队提出了一种考虑遮挡的场景参数化方法,将整个场景分解为遮挡、人物和背景三个部分。此外,我们设计了广泛的客观函数,以帮助强化人物与遮挡、背景的分离,并确保对人物模型的完整性。我们通过在野外视频上进行实验证明了我们方法的有效性。 方法介绍: 为了实现逼真的呈现,该方法将场景参数化为三个部分:遮挡物 → 人 → 背景,并通过新颖的优化目标将这些渲染解耦。为了处理在真实世界场景中可能出现的遮挡情况,该方法引入了感知遮挡的场景参数化,将场景解耦为遮挡、人和背景三个部分。此外,该方法设计了广泛的客观函数,以帮助强化将人从遮挡和背景中解耦,并确保人体模型的完整性。具体来说,方法使用了场景的自分解技术,通过倒置球面参数化的扩展,引入了感知遮挡的场景参数化。在这个参数化中,除了第一个由倒置球面参数化定义的球体外,引入了第二个内部球体,并将从摄像机到内部球体边缘的区域定义为遮挡区域。通过分开渲染这个区域,可以将遮挡与场景的其余部分解耦。为了确保对人的高保真和完整呈现,方法通过像素级光度损失、场景分解损失、遮挡解耦损失和几何完整性损失的组合来聚合三个渲染。该方法的贡献包括: 引入了感知遮挡的场景参数化,将场景解耦为遮挡、人体和背景三个部分。提出了一种新的渲染框架,分别渲染这三个部分,并设计了新颖的优化目标,以确保遮挡的清晰解耦和更完整的人体呈现。在具有挑战性的遮挡密集野外视频上对方法进行了评估,展示了其在呈现遮挡人体方面的有效性。 Wild2Avatar通过与Vid2Avatar(基线)和原始视频的对比,呈现了其在解决被遮挡人物渲染挑战方面的独特性能。 项目体验网址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Ftop.aibase.com%2Ftool%2Fwild2avatar&urlrefer=a3e2b9750bee51e4ade11e0e5dc06656 论文网址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Farxiv.org%2Fpdf%2F2401.00431.pdf&urlrefer=a08fcc7ab7d48ba870a1f15c735ab009
微软研究人员推新AI方法,用合成数据改进高质量文本嵌入 微软公司的研究团队最近提出了一种独特且简单的方法,用于生成高质量的文本嵌入。这种新方法仅使用合成数据和极少的训练步骤(少于1,000步),就取得了令人瞩目的成果。相比于现有的方法,该方法不依赖于多阶段的预训练和有限的标记数据微调,避免了繁琐的训练流程和手动收集数据集的问题,这些数据集通常在任务多样性和语言覆盖方面存在问题。该方法利用专有的大型语言模型在约100种语言的文本嵌入任务中生成了各种合成数据。与复杂的预训练阶段不同,该方法使用基本的对比损失函数,将开源的仅解码的大型语言模型在生成的合成数据上进行微调。 研究团队进行了一些测试以验证该方法的有效性。该模型在激烈竞争的文本嵌入基准测试中展现了出色的结果,而无需使用任何标记数据。当使用合成数据和标记数据的组合进行改进时,该模型在 BEIR 和 MTEB 基准测试上取得了新的记录,成为了文本嵌入领域的最先进方法。 专利的大型语言模型如 GPT-4被用来生成包括多语言指令在内的各种合成数据。通过利用 Mistral 模型强大的语言理解能力,该方法在几乎所有工作类别上在激烈竞争的 MTEB 基准测试中取得了出色的性能。 该研究表明使用大型语言模型可以显著提高文本嵌入的质量。该研究的训练过程极大地减少了对中间预训练的需求,相较于当前的多阶段系统,更加简洁高效。 论文网址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Farxiv.org%2Fabs%2F2401.00368&urlrefer=bde33d1b96747c79dc70388917762a63
清华、浙大推GPT-4V开源平替!LLaVA、CogAgent等开源视觉模型大 近期,GPT-4V的开源替代方案在中国的顶尖学府清华、浙大等的推动下,出现了一系列性能优异的开源视觉模型。其中,LLaVA、CogAgent和BakLLaVA是三种备受关注的开源视觉语言模型。 LLaVA是一个端到端训练的多模态大模型,它将视觉编码器和用于通用视觉和语言理解的Vicuna相结合,具备令人印象深刻的聊天能力。而CogAgent是在CogVLM基础上改进的开源视觉语言模型,拥有110亿个视觉参数和70亿个语言参数。 另外,BakLLaVA是使用LLaVA1.5架构增强的Mistral7B基础模型,已经在多个基准测试中优于LLaVA213B。这三种开源视觉模型在视觉处理领域具有极大的潜力。 LLaVA在视觉聊天和推理问答方面表现出接近GPT-4水平的能力。在视觉聊天方面,LLaVA的表现相对于GPT-4的评分达到了85%,在推理问答方面更是达到了92.53%的超过GPT-4的新SoTA。LLaVA在回答问题时,能够全面而有逻辑地生成回答,并且可以以JSON格式输出。 它不仅可以从图片中提取信息并回答问题,还可以将图片转化为JSON格式。LLaVA还可以识别验证码、识别图中的物体品种等,展现出了强大的多模态能力。在性能上接近GPT-4的情况下,LLaVA具有更高的成本效益,训练只需要8个A100即可在1天内完成。 CogAgent作为在CogVLM基础上改进的开源视觉语言模型,拥有更多的功能和性能优势。它支持更高分辨率的视觉输入和对话答题,能够处理超高分辨率图像输入。论文地址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Farxiv.org%2Fpdf%2F2312.08914.pdf&urlrefer=72de93adadb3b2c2e1543fc38f2161f9 CogAgent还提供了可视化代理的能力,能够返回任何给定任务的计划、下一步行动和带有坐标的具体操作。它还增强了与图形用户界面相关的问题解答功能,可以处理与网页、PC应用程序、移动应用程序等任何图形用户界面截图相关的问题。另外,通过改进预培训和微调,CogAgent还增强了OCR相关任务的能力。这些功能的提升使得CogAgent在多个基准测试上实现了最先进的通用性能。 BakLLaVA是使用LLaVA1.5架构增强的Mistral7B基础模型,具备更好的性能和商用能力。BakLLaVA在多个基准测试中优于LLaVA213B,并且可以在某些数据上进行微调和推理。虽然BakLLaVA在训练过程中使用了LLaVA的语料库,不允许商用,但BakLLaVA2则采用了更大的数据集和更新的架构,超越了当前的LLaVA方法,具备商用能力。
微软宣布 Win11 PC 键盘将新增 Copilot 键,可一键直达 AI 助手 微软希望 2024 年成为“AI PC 之年”,并通过一项重大革新拉开序幕。微软宣布新款笔记本电脑和 PC 将搭载全新 Copilot 键,用户只需按下该键,就能直达微软强大的 AI 助手 Windows Copilot。这是近 30 年来 Windows PC 键盘布局的首次重大变革。微软执行副总裁兼首席营销官 Yusuf Mehdi 表示:“近 30 年前,我们引入了 Windows 键,让全球用户得以与 Windows 操作系统互动。如今,Copilot 键标志着 Windows 旅程中的另一个转型时刻,它将成为 PC 端进入 AI 世界的入口。”全新的 Copilot 键将取代几十年来与 Windows 键一同引入的菜单键(应用程序键),它将位于大多数键盘的右 Alt 键旁边,具体位置则由制造商和不同市场而定。2019 年,微软曾在自家键盘上添加了专用的 Office 键,Copilot 键的位置与此相同。Copilot 键的作用很简单,只需按一下,即可启动集成于 Windows 11 的 Windows Copilot,提供类似 ChatGPT 的聊天机器人功能,可解答问题甚至执行 Windows 内部操作。 如果 Windows Copilot 尚未在用户的国家 / 地区推出,Copilot 键的功能将改为启动 Windows 搜索。虽然现有的 Windows 键可以打开开始菜单,或与其他按键组合成快捷键访问 Windows 功能以执行 Windows 功能,但 Copilot 键目前只是一个启动键。微软是否计划将来允许 Copilot 键与其他键组合使用尚不清楚。 微软没有透露哪些原始设备制造商会加入 Copilot 键,相关消息将在下周的消费电子展上陆续公布。Mehdi 表示:“我们将开始看到来自我们生态系统合作伙伴的新款 Windows 11 PC 搭载 Copilot 键,从本月晚些时候到春季陆续上市,其中包括即将推出的 Surface 设备。” 据传闻,微软将于春季推出新款 Surface Pro 10 和 Surface Laptop 6,Surface 设备配备 Copilot 键的传言也已得到证实。 2023 年全年,微软似乎一直在将 Copilot“塞进”各处,而全新的 Copilot 键则是微软计划在 2024 年将更多 AI 功能融入 Windows 系统的一部分。Mehdi 表示:“在新的一年里,我们将迎来重大变革,迈向更加个性化和智能的计算未来,AI 将无缝融入 Windows,从系统到芯片再到硬件。这不仅会简化人们的计算体验,还会放大它的效用,使 2024 年成为 AI PC 之年。”
首页 8 9 10 11 12 13 下一页