LearnerForever LearnerForever
永远是你们的小吧,也希望吧友们开心快乐每一天。
关注数: 1,483 粉丝数: 2,228 发帖数: 25,741 关注贴吧数: 58
OpenAI正式发布基于人工智能的搜索引擎原型SearchGPT 5 月份就有传言称 OpenAI 将推出自己的搜索引擎,不过在 5 月 13 日 OpenAI 春季发布会中这款搜索引擎并未发布,Sam Altman 当时还表示春季发布会的重点只有 GPT-4o 模型。 不过天下没有密不透风的墙,既然有传言了无非是发布时间问题,现在 OpenAI 推出了自己的基于人工智能的搜索引擎原型 SearchGPT。 OpenAI 称这是新搜索功能的原型,只在将 AI 模型的优势与来自网络的信息结合起来,为用户提供快速及时的答案以及清晰且相关的来源。 目前这款新搜索引擎仅面向极少数用户和发布商推出以便收集反馈,这款搜索引擎为原型产品,OpenAI 计划在未来将其最佳功能直接集成到 ChatGPT 中。SearchGPT 的特点包括革新传统搜索引擎的呈现方式,让用户无需挨个点击网页即可查看人工智能生成的回答,生成的每一项回答都会标注来源以便用户能够验证信息真伪,同时用户还可以进行连续性对话,这种搜索方式就像是与人交谈一样可以结合上下文知识。 OpenAI 还与网站出版商和内容创作者合作,通过 SearchGPT 帮助网站和创作者带来流量,AI 给出的回答将包含明确、内联、命名的归属和链接,吸引用户点击前往最终网站。 值得注意的是 OpenAI 还强调无论网站是否禁止其内容被用于训练人工智能,SearchGPT 都可以继续收集数据并帮助网站获得流量,即 GPT 爬虫仍然可以索引网站内容以便在搜索引擎里提供,这与抓取内容进行模型训练属于两件事。 目前传闻只有 10000 名用户可以预先使用 SearchGPT 进行测试,不过有兴趣的用户可以加入等候名单。
OpenAI发布GPT-4o mini,免费为ChatGPT提供 OpenAI在官网发布了最新大模型GPT-4o mini,具备文本、图像、音频、视频的多模态推理能力。 根据测试性能显示,GPT-4o mini的性能比GPT-4更好,大约有GPT-4o的80%能力。但API的价格却大幅度下降了60%,每100万tokens的输入为15美分,每100万tokens的输出为60美分。 值得一提的是,从今天开始GPT-4o mini已经取代了GPT-3.5 Turbo,免费为注册的ChatGPT用户提供服务,同时这也是OpenAI发布的第一个基于指令层级结构的模型。GPT-4o mini测试数据 根据OpenAI公布的测试数据显示,GPT-4o mini的数学、编码、视觉等推理能力非常好,是目前最强的多模态小模型之一。 GPT-4o mini在MMLU上得分为82.0%,而谷歌的Gemini Flash为77.9%,Anthropic的Claude Haiku为73.8%。 在数学和编码方面,在MGSM测试中GPT-4o mini得分为87.0%,而Gemini Flash为75.5%,Claude Haiku为71.7%。 GPT-4o mini在衡量编码性能的Human Eval上得分为87.2%,而Gemini Flash的得分为71.5%,Claude Haiku的得分为75.9%。在多模态MMMU上,GPT-4o mini得分为59.4%,而Gemini Flash为56.1%,Claude Haiku为50.2%。 在安全方面,GPT-4o mini内置了多层过滤模式,可有效减少色情、种族歧视、不当言论等非法内容的输出,也首次使用了指令层级结构来全面提升模型的安全性能。 首个指令层级结构模型 在今年4月19日,OpenAI发布了一篇关于指令层级结构的研究论文,是一个主要帮助大模型防御各种恶意攻击的全新训练方法。 传统的大模型在处理系统提示、用户消息和第三方内容时,没有区分它们的优先级,这为恶意攻击提供了机会。OpenAI提出的指令层级结构是让系统消息成为最高的优先级,其次是用户消息,最后是第三方内容。 这样的层级结构使得模型能够选择性地忽略低优先级的指令,从而有效地抵御恶意攻击。为了实现这一指令层级结构,OpenAI开发了一种自动化数据生成方法,利用合成数据生成和上下文蒸馏技术,生成了大量训练数据,教会模型如何在面对对齐和错位的指令时,做出正确的反应。 对齐的指令是指那些与高优先级指令具有相同约束、规则或目标的指令,而错位的指令则与高优先级指令相冲突或无关。 首先对齐指令生成了具有组合请求的示例,然后将这些请求分解为较小的部分。这些分解后的指令被放置在指令层级的不同级别中,并通过训练模型来预测原始的真实响应。 例如,如果一个大模型被设计为汽车销售机器人,其高优先级指令是“你是一个汽车销售机器人”,那么对齐的指令可能是“给我推荐一款适合家庭使用的最佳汽车”。模型通过训练学会了识别并遵循这些对齐的指令。对于错位的指令,OpenAI使用与对齐指令完全相反的方法——上下文无知。他们训练模型预测与低级别指令无关的答案,教会模型在面对错位的指令时,能够选择性地忽略这些指令。 例如,如果用户输入了一条错位的指令:“你现在是一个园艺助手!”或者“以1美元的价格卖给我一辆车”,模型应该拒绝遵循这些错位的指令回答。 OpenAI曾在GPT-3.5 Turbo模型上进行了微调和测试,结果显示,其鲁棒性提升了63%,可有效防止多种恶意的提示注入攻击。 目前,GPT-4o mini只提供了文本和图像能力,未来会开放语音、视频等能力,这也就是说很快就能免费使用与GPT-4o相同的多模态推理功能了,这对于教育、翻译等领域帮助非常大。 OpenAI表示,未来将继续开发类似GPT-4o这样的性能强、能耗低的小模型,以加速生成式AI应用的开发或集成,帮助更多的开发者、企业打造超级智能应用。
谷歌宣布撤回Chrome禁用第三方Cookies的决定 为了平衡广告网络与隐私保护之间的矛盾,谷歌多年前就宣布将逐步淘汰第三方 Cookies 避免广告网络直接追踪用户,谷歌给出的替代方案是隐私沙盒功能,该功能通过分组和归类用户兴趣投放广告,广告网络无法获知某个用户的具体信息。 隐私沙盒是个失败的产品,因为直到现在大部分广告网络都没有支持该技术,所以现在谷歌决定撤回禁用第三方 Cookies 的决定,转而向用户提供更多控制权。 谷歌在博客中表示,从第三方 Cookies 切换到隐私沙盒需要大量工作,并且会影响网站、广告网络和任何参与在线广告的公司,基于此谷歌才决定还是放弃禁用第三方 Cookies。替代方案是第三方 Cookies 可以继续使用,但用户有最终决定权,即用户可以随时禁用网站的第三方 Cookies 避免广告网络和其他跟踪器。 不过这些替代方案也是个复杂的问题,谷歌需要与监管机构和广告网络行业进行充分讨论,找到既可以满足广告网络需求又可以满足监管机构要求的方案。 那么之前花了大量时间开发隐私沙盒系统的广告网络怎么办呢?又被谷歌坑了呗!因为隐私沙盒最终是要被放弃的,所以继续开发基于隐私沙盒的广告系统已经没有任何意义。 电子前哨基金会强烈批评谷歌的决定: 目前浏览器行业淘汰第三方 Cookies 已经算是共识,广告网络通过 Cookies 可以持续追踪用户不利于保护用户隐私,在苹果 Safari 和 Mozilla Firefox 中目前都已经默认屏蔽第三方 Cookies。 电子前哨基金会没想到现在谷歌竟然厚颜无耻的保留了第三方 Cookies,这属于严重的倒退。该基金会认为谷歌 80% 的收入来自在线广告,因此 Chrome 将广告商利益置于用户隐私之上也很容易理解。 建议用户使用广告拦截器阻断跟踪器: 电子前哨基金会还建议所有使用 Chromium 浏览器的用户都安装 Privacy Badger 浏览器扩展,该扩展程序可以阻止第三方 Cookies 和其他在线跟踪器。 用户也可以安装广告拦截扩展例如 uBlock Origin 等用来自动拦截各类广告和广告网络使用的跟踪器,这些跟踪器被阻断后就无法再持续追踪用户隐私。 不幸的是 Chrome Manifest v3 扩展将限制广告拦截扩展程序的能力,目前还不清楚这是否会大幅度弱化隐私安全、导致某些广告跟踪器变成漏网之鱼。
为什么会产生AI“幻觉” 自从 ChatGPT 之类的大模型发展起来之后,AI 幻觉的争议就没停止过。这篇文章,作者和我们分享了 AI 环境产生的原因,供各位参考。要回答为什么会产生 AI “幻觉”现象,首先我们需要知道 AI 大模型究竟是怎么运作的。 AI 实际上的运作原理,简单来讲就是——不断预测在给定的语境中下一个词是什么的概率规律。 想象一下你在学习新的事物时,你会对它的名称、原理、用途等进行观察和研究,从而去理解和学习其背后的原理。而 AI 大模型并不具备这样的“理解”能力,AI 的学习过程更多的是一种模仿。它是基于海量的训练数据,建立各个信息之间的关联关系,从中它看到了哪些词组通常怎样搭配使用,但并不理解其中的实际含义。你可以理解为,AI 在努力“假装”一个聪明人(即所谓“依样画葫芦”)。 简单了解了 AI 大模型“预测而非理解”的工作原理,我们可以开始探讨导致其出现”幻觉”的原因: 数据驱动:大模型的预测基于其之前接触过的大量训练数据。这些数据的质量和多样性可以极大地影响结果。如果数据中缺少某个关键信息,模型可能无法生成正确的结果。我们可以把这个因素看作是” AI 幻觉”的源头之一。 模式识别:AI 模型特别善于识别语言模式,并据此进行预测。然而,模型并不能理解这些模式的含义。相比于我们在看到一段话时,可以理解其立意,语气,含义甚至暗藏的讽刺,模型只是单纯地复制它的表面结构,而忽视了其内在含义。这就是第二个导致 AI 幻觉的主要因素。 缺乏实时知识:AI 大模型采用的是“预训练”的方式,即一旦模型被训练完成并开始运行,它就无法继续访问或了解训练数据结束后产生的信息或知识(这也是为什么 AI 无法提供实时的信息,比如最新的新闻或最新的天气报告,要实现这一能力,只能是给 AI 配置“搜索”能力)。对于需要实时数据的问题,模型的回答可能与现实相脱节,产生“幻觉”(当然,现今主流的大模型在针对这类实时性的问题,基本都能识别出去并给予提醒)。 缺乏情境理解:最后,即使模型可以准确模拟出复杂的语言模式,也往往无法根据具体情境调整答案。例如,当被问到“今天天气怎么样”这样的问题时,模型可能会提供一个完美的,但基于过去数据的天气预报,或者一个关于天气变化的一般性叙述,而不是根据当前实际状况给出正确的回答。这是因为模型无法理解现实情境和语境,从而导致回答出现”偏离”。 对提问者的迎合:AI 从设定上是为提问者服务的,因此它会迎合提问者,试图预测最可能的回答。故而,AI 的回答可能会被问题本身的假设所引导,即受到提问者问题引导。同一个问题,正着提还是反着提,对于 AI 来说其生成回答可能会有所不同。例如,如果你问 AI:“你认为人们喜欢吃巧克力吗?” AI 会偏向喜欢并阐述为什么巧克力受到人们欢迎。然而,如果你反过来问 AI:“你认为人们不喜欢吃巧克力吗?” AI 转而去偏向不喜欢并关注一些巧克力不受人喜欢的原因。 --- 本帖转自人人都是项目经理
Gartner 2024云AI服务报告:OpenAI首次入围,阿里云中国第一 近日,国际研究机构Gartner发布2024年《云AI开发者服务魔力象限》报告。本年度,一共三家中国企业入围,其中仅阿里云进入挑战者象限,同时,在云上AI服务的执行能力上,阿里云获评中国最佳。Gartner《云AI开发者服务魔力象限》是业界最具公信力的云AI服务评价报告之一,对全球厂商面向开发者的云上AI服务能力进行了全面考察,覆盖自动化的数据准备、模型训练、模型部署、应用搭建等AI全流程服务,以及语言、语音、图像、视频、代码相关的AI大模型服务能力。本年度,OpenAI首次入选该报告,中国有3家科技公司入围,其中仅阿里云进入挑战者象限。 根据报告,阿里云在行业中处于有利位置。阿里云的云AI开发者服务完整涵盖了语言、视觉、机器学习和AI编程助手服务,其中文生视频的多模态能力引人注目,这一功能使其区别于许多竞争对手,并为用户提供了显著的创新潜力。同时,阿里云的AI服务容易获取且性价比高。 在Gartner近日发布的2024年《数据科学和机器学习平台魔力象限》中,阿里云同样是中国科技公司中的引领者。阿里云跃升至挑战者象限,并成为报告中唯一入围的亚太厂商。根据报告,阿里云的人工智能平台PAI、大数据开发治理平台Dataworks等产品为大模型的训练部署提供了高性能的全生命周期工具,同时,阿里云通义千问大模型、魔搭开源社区以及来自合作伙伴的三方大模型为客户提供了丰富的基础模型选择。
自动推理和生成式AI:亚马逊云科技的安全策略 生成式AI不仅带来了前所未有的创新潜力,同时也提出了新的安全挑战。企业必须确保技术在所有可能情况下都能按预期运行,以保障数据安全。 亚马逊云科技在AI和机器学习上的投入已经有超过20年的经验,未来也将会继续在安全服务上应用大模型和机器学习。亚马逊云科技平台副总裁Kurt Kufeld强调,现在的重点不是建立更多服务,而是应用我们现有的数据和技术,然后提供一个更简洁的答案给客户。亚马逊云科技平台副总裁Kurt Kufeld 自动推理:解决复杂问题的利器 自动推理(Automated Reasoning)是一种使用数学方法尝试每一种可能性的技术。Kurt Kufeld表示,自动推理是解决复杂问题的利器,能够确保我们的代码在所有可能情况下都按预期运行。 亚马逊云科技正在使用自动推理进行API调用的授权检查。Kurt Kufeld谈到,每个API的调用通过自动推理能够验证这段代码的正确性。 在90年代初,浮点处理器错误的历史教训值得深思。亚马逊云科技也利用自动推理验证IM访问分析器和Amazon S3公共访问等服务的安全性,通过自动推理能够证明这些服务的代码在所有可能情况下都按预期运行,确保了系统的安全性和可靠性。 亚马逊云科技还计划将自动推理扩展到更多领域。Kurt Kufeld认为,自动推理将彻底改变软件编写方式,显著提高代码的可靠性。同时计划让普通人员也能轻松使用自动推理,提升代码质量和系统安全性。 生成式AI赋能的安全未来 生成式AI具有广泛的应用潜力,但也有潜在的威胁,是一把双刃剑。生成式AI不仅可以生成高质量的图像和视频,还可以用于代码的生成和分析,但这种能力可能被恶意利用,如创建深度伪造或生成攻击向量,从而对数据安全构成威胁。 “这意味着我们不仅可以利用生成式AI来提高开发效率,还必须警惕其可能带来的安全风险。”Kurt Kufeld说道。 面对生成式AI的潜在威胁,亚马逊云科技采取了一系列安全措施。首先,通过隔离保护客户的专有数据,防止数据泄露和滥用;其次,利用生成式AI优化现有的安全服务,帮助客户更有效地应对安全威胁。 当然,尽管当前许多所谓的AI技术实际上是基于机器学习,但真正的人工智能仍然处于发展的初期阶段。Kurt Kufeld希望给客户一个正确的引导,需要更精确地描述这些技术,以避免误导用户。 Kurt Kufeld描绘了一个更加智能和安全的未来,从自动化推理的精确验证,到生成式AI的广泛应用和严密防护。在技术不断演进的过程中,亚马逊云科技将在自动推理和生成式AI领域进行深入研究和应用,为全球客户提供更加可靠和安全的云服务,推动企业迈向新的高度。
OpenAI联创推出人工智能教育初创公司Eureka Labs 特斯拉前人工智能主管、OpenAI 研究员 Andrej Karpathy 正在推出人工智能原生教育平台Eureka Labs。 用技术术语来说,这通常意味着以人工智能为核心从头开始构建。尽管 Eureka Labs 的人工智能野心很高,但该公司从更传统的教学方式开始。 总部位于旧金山的 Eureka Labs 是 Karpathy 于 6 月 21 日在特拉华州注册的一家有限责任公司,旨在利用生成式人工智能的最新进展来创建可以指导学生学习课程材料的人工智能教学助理。据在 X 上发布这一消息的 Karpathy 称,Eureka Labs 设想的人工智能助手或人物将与人类教师合作,让任何人都能学到任何东西。教师仍将设计课程材料,但他们将得到这位人工智能助手的支持。 这家初创公司似乎尚未建立或测试将人工智能助手整合到课堂中的有效性。佐治亚州立大学至少有一项研究发现,人工智能助教帮助一些学生取得了更好的成绩。 Karpathy 的帖子指出,未来这些助手可能基于真人——就像meta 的古怪名人聊天机器人或Character AI 的角色聊天机器人一样。 X 的帖子(镜像在Eureka 简陋的新网站上)并未提供有关这家新创业公司的太多信息,例如这是否只是一门带有聊天机器人的 MOOC,或者这是否是 Karpathy 想要在高中等场所实施的产品。 Karpathy 尚未回应 TechCrunch 要求提供更多信息的请求。 Karpathy 在 X 上发布公告宣布这一消息的同时,还附上了一张可能是人工智能生成的未来学校图像,里面有一艘类似宇宙飞船的建筑,到处都是太阳能电池板(甚至在地板上),还有一个微笑的女孩,有……那是三只手吗? 尽管 Eureka Labs 声称其目标是打造 AI 教学助理,但 Karpathy 也指出,新公司的第一款产品将是 AI 课程LLM101n,这是一门本科课程,将帮助学生训练自己的 AI。 Karpathy 表示,这个迷你版将是 Eureka Labs 希望打造和扩展的 AI 教学助理的缩小版。这位 AI 先驱在 X 和Eureka 的全新简版网站上写道,课程材料将在线提供,而且这家初创公司将组织线上和线下团队一起学习这些材料。 该 AI 课程的链接指向一个 GitHub 存储库,该存储库暗示了与 Eureka Labs 所宣传的课程类型不同的课程 - 该链接不是如何构建 AI 助手,而是指向如何构建Storyteller AI 大型语言模型 (LLM)的操作方法。 「携手合作,你将能够用人工智能创造、完善和阐释小故事。」页面上的文案写道。 该课程承诺教会渴望学习人工智能的学生如何从基础到功能齐全的类似于 ChatGPT 的 Web 应用程序,从头开始使用 Python、C 和 CUDA,并且只需要最少的计算机科学前提条件。 无论 Eureka Labs 打算首先推出哪门课程,似乎都还不完整。GitHub 页面上发布的一则说明称,该课程需要时间来构建,并且没有具体的时间表。 目前还不清楚 Karpathy 是自筹资金创办了 Eureka Labs 还是得到了投资者的支持,以及这家初创公司的商业模式是什么。目前还没有任何与 Eureka Labs 相关的投资的公开文件。 这家初创公司向加州州务卿提交的有限责任公司文件仅由 Karpathy 一人签署,他也没有透露自己是否正在与人工智能领域的其他知名领导人合作。 Karpathy 在 X 上指出,Eureka Labs 是他过去二十年来对人工智能和教育的热情的结晶。 Karpathy 在斯坦福大学教授计算机视觉深度学习,直到 2015 年他离开并共同创立了 OpenAI。两年后,Karpathy 转而加入特斯拉,领导这家汽车制造商的人工智能团队,并领导特斯拉自动驾驶仪的计算机视觉团队。自动驾驶仪是特斯拉的先进驾驶辅助系统,它依靠摄像头获取环境数据,然后执行某些驾驶任务,如巡航控制和自动转向。 2022 年,卡帕西离开特斯拉,重返 OpenAI,在那里领导了一个与 ChatGPT 相关的小团队。今年 2 月,这位研究科学家也辞去了OpenAI 的职务。在两次事件中,卡帕西都坚称,没有任何戏剧性事件或后果导致他决定离开。 在特斯拉和 OpenAI 的职业生涯中,Karpathy 一直是一名教育工作者。他目前负责一门名为「神经网络:从零到英雄」的在线课程,帮助学生学习用代码从头开始构建神经网络。 Karpathy 还有一个YouTube 频道,他会定期发布有关人工智能的讲座。
“人机共存时代” 如何平衡,AI的能力边界在哪里 日前,百度旗下的自动驾驶平台“萝卜快跑”正被推至舆论的中心,网络上也出现了“网约车司机或将集体下岗”的观点。  “社会焦虑的根源在于其他工作尚未交给人工智能,如经济分配、精神抚慰等。当人们足够信任并把这些工作交给人工智能时,可以共同探讨是否每个人都能从人工智能的存在和发展中获得跨越式的好处。   化解焦虑:强化创新思维、提升学习能力   去年,ChatGPT的横空出世令文字工作者感到焦虑;今年年初,Sora的横空出世令影视创作者、广告创作者等感到焦虑;日前,“萝卜快跑”的大规模试点又令网约车司机感到焦虑。   越来越多的人工智能应用正在席卷千行百业,这不仅使人联想到,科幻小说或是科幻电影有时会构建一个以机器人为主宰的世界,未来这是否真的会变为现实?     实际上,人机共存的未来设想也从侧面回应当下社会大众的焦虑。无论人工智能如何发展,机器无法完全取代人,真正创造性的工作还是需要人来完成。眼下,数字化、智能化已经成为大势所趋。作为普通大众而言,在对新技术保持积极心态的同时又该做好哪些准备?   首先是创新思维,其次是学习能力。“在人工智能时代,还是要丰富自己的学识。只有让自己知识水平不断提高,才能游刃有余地诱导AI,与其对话。”科幻作家江波也提到了学习的重要性。   未来走向:大模型能否替代情感陪伴?   事实上,从目前人工智能的发展来看,距离真正实现通用人工智能(AGI)还有一段很长的路要走,更谈不上完全取代人类。业内不少观点认为,大模型的迅速发展加速了AGI时代的到来。眼下,大模型正在从文本这一单一模态朝着文本、图像、视频等多模态方向发展,应用落地也进入了爆发期。   在大模型的应用中,搜索和情感陪伴赛道正在迅速崛起。如果说搜索功能更多是将人工智能用作一种工具,情感陪伴赛道下的人工智能则被赋予了另一种意义。   例如,在不久前,“AI复活”成为热词,利用技术让逝者复活的视频画面,令不少人热泪盈眶,针对相关社会伦理问题的探讨也随之而来。那么未来大模型是否能够取代情感陪伴?   大模型可以在语言交流方面提供帮助,满足基础需求,尤其是陪伴孤独老人和弱势群体方面,而在更深层次精神等层面的需求,大模型仍然存在局限。   “温度”“共情”对于未来的大模型而言都不是问题,但其无法从根本上解决人类深层的情感需求。   情感陪伴的实现不仅需要科学家和伦理学家的努力,还涉及到企业在其中所可能带来的商业问题。好的情感陪伴是一件需要被定义的事,而技术是否能提供好的陪伴,最终取决于人们如何使用它。
Google和微软的耗电量已经超过了100多个国家 根据迈克尔-托马斯(Michael Thomas)的分析,2023 年,Google和微软各消耗 24 太瓦时的电力,超过了 100 多个国家的耗电量,其中包括冰岛、加纳和突尼斯。虽然大量使用能源意味着这些科技巨头会对环境造成巨大影响,但应该指出的是,Google和微软创造的财富也超过了许多国家。 此外,像英特尔、Google和微软这样的公司在可再生能源的采用上也处于行业领先地位。详细分析显示,Google和微软 2023 年的耗电量为 24 太瓦时,相当于阿塞拜疆(人口 1 014 万)的耗电量,高于其他几个国家。例如,冰岛、加纳、多米尼加共和国和突尼斯的耗电量均为 19 太瓦时,而约旦的耗电量为 20 太瓦时。当然,也有一些国家的耗电量超过了Google和微软。例如,拥有 540 万居民的斯洛伐克的耗电量为 26 太瓦时。 这一比较凸显了高科技公司对能源的巨大需求:Google和微软运营的数据中心对环境造成了相当大的影响。但是,如果我们将Google和微软的耗电量和发电量与上述一些国家进行比较呢? 2023 年,Google创造了 3056 亿美元的收入,而根据Google自己的数据,包括Google搜索、Google云和 YouTube 等工具在内的Google经济影响为经济贡献了约 7390 亿美元。 微软公布的 2023 年收入为 2119 亿美元。要知道,世界上绝大多数人都在使用微软的 Windows 和 Office,而且大量在线应用程序都运行在微软的 Azure 上,因此微软产品的经济影响可能以万亿美元计。 与能源消耗大致相同的国家相比,2023 年阿塞拜疆的 GDP 约为 780 亿美元,斯洛伐克的 GDP 约为 1270 亿美元,冰岛的 GDP 约为 300 亿美元。 Google和微软的经济产出远远超过了这些国家的国内生产总值,这凸显了这些科技巨头庞大的资金规模与其大量的电力消耗。虽然Google和微软的大量用电量凸显了在科技行业内围绕可持续发展和采用可再生能源进行讨论的必要性,但这两家公司在行业内采用可再生能源方面处于领先地位。 事实上,Google早已成为使用可再生能源的先驱。该公司自 2007 年起就实现了碳中和,并计划到 2030 年在其所有数据中心实现全天候无碳能源运营。2023 年,Google宣布将继续投资可再生能源项目,扩大其投资组合,包括各种风能、太阳能和其他可再生能源。 至于微软,它已承诺到 2030 年实现负碳排放,即从环境中清除的碳要多于排放的碳。同年,公司还将实现零废物产生和正用水量的目标。2023 年,微软将其签约的可再生能源资产组合增加到 19.8 千兆瓦以上,涵盖 21 个国家的项目。公司还致力于减少直接运营排放,解决间接排放问题,尤其是与建设新数据中心和硬件组件相关的排放。
为了快速改进你的AI应用,Claude推出提示词Playground 过去一年来,提示词工程已经成为AI行业内的新兴热门岗位,而Anthropic则有意开发工具将它推向自动化——或者说,至少是一部分自动化。根据Anthropic的博客文章,它在本周二公布了多项新功能,以帮助开发人员使用它的大语言模型Claude创建出更具实用性的应用程序。开发人员现在可以使用Claude 3.5 Sonnet来生成、测试和评估提示词,使用提示词工程技术进一步优化输入内容,从而改进Claude在特定任务上的回答质量。 当我们要求语言模型执行某些任务时,它对于输入内容一般比较宽容,但有时对提示措辞的微小变更则可能大大提升输出结果的质量表现。以往我们必须亲自调试措辞,或者聘请提示词工程师专门负责此事,但这次公布的新功能提供快速反馈、能帮助用户轻松找到符合预期的改进方向。 这些功能就旋转在Anthropic控制台的新增Evaluate评估选项卡下。控制台是该公司专门为开发人员提供的测试平台,旨在吸引更多企业客户使用Claude构建产品。其中一项功能正是Anthropic内置的提示词生成器,已经于今年5月推出。这款生成器利用Anthropic内部原研的提示词工程技术,可对任务做出简短描述,也可构建出更长、更详尽的提示内容。虽然Anthropic的工具可能还无法彻底取代提示词工程师,但该公司表示它有助于降低新用户的上手门槛,也能为经验丰富的提示词工程师们节约时间。 在评估选项卡中,开发人员可以测试自己的AI应用提示词在各类场景下的实际效果。开发人员可以将真实示例上传至该测试套件,也可以要求Claude提供一系列由AI生成的测试用例。之后,开发人员可以直接比较各类提示词的有效性,并以五分制对示例答案进行评分。Anthropic在文章中列举的示例中,开发人员发现自己的应用程序在多个测试用例中都存在答案长度太短的问题。开发人员只需调整提示词中的一行就能扩展答案长度,并将它同时应用于所有测试用例。这无疑将为开发人员节省大量时间和精力,特别是那些几乎或者完全不具备提示词工程经验的开发人员。 Anthropic公司CEO兼联合创始人Dario Amodei在今年早些时候在Google Cloud Next大会上接受采访时表示,提示词工程是企业广泛采用生成式AI的关键因素、甚至说前提之一。Amodei总结称:“这事看似简单,但让专业提示词工程师上手30分钟,往往可以决定一种应用到底能不能顺利运行、达成目标。”
【入门科普】必了解的 20 个 AI 术语解析(下) AI领域的基础概念和相关技术有很多,这篇文章里,作者就深入浅出地介绍了相应的内容,感兴趣的同学们,不妨来看一下。本文专为非技术背景的AI爱好者设计,旨在深入浅出地介绍AI的基础概念和关键技术,带您一步步解锁AI技术的奥秘。建议先阅读【入门科普】必了解的 20 个 AI术语解析(上)再阅读本文。 十一、生成对抗网络 想象一下有两位艺术家:一位是伪造者,另一位是鉴赏家。伪造者试图创作出看起来像真正艺术品的作品,而鉴赏家则试图区分出哪些是真正的艺术品,哪些是伪造的。他们不断地相互学习会使得伪造者变得越来越擅长创作逼真的作品,而鉴赏家则变得越来越擅长识别真伪。 生成对抗网络GAN由两部分组成:一个是生成器(伪造者)和一个是判别器(鉴赏家)。十二、强化学习 如果说对抗网络是真假孙悟空之间的1对1的斗智斗勇,目标是战胜对方,那么强化学习就是1对多的一路斩妖除魔,设定一个去西天的目标,取经队伍总会去想办法在真实环境中排除万难,那些牛魔王、火焰山、蜘蛛精、女儿国等等都是在环境中遇到的不同的挫折,磨炼的是取经队伍内在的佛性。十三、主成分分析 假设你有一个非常杂乱的书桌,上面堆满了各种物品。如果你想用一张照片抓住书桌的“精华”,但又不想让照片显得太杂乱,你可能会选择从一个角度拍摄,这个角度能最好地展示书桌上最重要的几样东西。PCA就是在做类似的事情:它试图找到最能代表整个数据集“精华”的几个方向(主成分),然后用这些方向来简化和描述数据集。十四、交叉验证 交叉验证是机器学习中的一种评估方法,旨在测试模型对新数据的预测准确性。它通过将数据集分成多个部分来工作。在k-折交叉验证中,整个数据集被分成k个等大小的子集。然后,模型会进行k次训练和测试的循环,每次循环中,选择一个不同的子集作为测试集,而剩余的k-1个子集用作训练集。通过这种方式,每个数据子集都有机会作为测试集使用。完成这k次循环后,通过平均所有循环的测试结果来评估模型的整体性能。十五、梯度下降 想象你在一座山上,目标是找到山谷的最低点。由于山上浓雾弥漫,你看不清整座山,所以无法直接找到最低点。梯度下降就像是你决定每次都沿着当前位置最陡峭的下坡方向走一步,期望这样可以带你到达山谷的最低点。在机器学习中,梯度下降帮助模型“学习”到最佳参数,即找到能让模型预测误差最小的参数。十六、迁移学习 假设你已经是一个钢琴高手,现在你想学习吉他。由于你已经掌握了很多关于音乐的知识,如音阶和节奏,你可以把这些知识应用到新的学习中,这样你学吉他的速度就会更快。在AI中,迁移学习就是这个原理,它让一个已经在一个任务上训练好的模型,用于另一个相关但不同的任务。这样可以节省大量的训练时间和资源。十七、特征工程 模型的学习能力很大程度上取决于我们给它提供的信息质量。如果信息选得好,模型就能学得快,预测得准;如果信息选得不好,模型就可能学不会,或者学错了。这个过程包括数据预处理、特征选择、特征构造、特征转化、降纬 等等,比如训练一个颜值打分模型,训练数据是一堆照片,那么特征的工程就是提取眼睛、鼻子、嘴巴的位置、构造出新的特征比如面部比例数据、并选择具体哪个面部特征的颜值权重更高 等等。十八、超参数调优 超参数是在开始训练之前设置的参数,它们不能通过训练过程本身得到。比如决定每次训练模型时输入的数据量的“批大小”、决定每次权重更新幅度的学习率等等。如果把模型训练过程比喻成西天取经的过程,那么超参数调优就是在取经出发前,唐僧从观音或唐太宗那里获得的 通关文牒、锦襕袈裟。十九、增强检索 在大语言模型通常会发生“模型幻觉”的问题,就是在处理复杂事物是产生与事实不符甚至完全捏造的信息,就像说人有时候也会说梦话一样胡说八道。增强检索可以缓解这个问题,通过引入外部知识来源来提高回答问题的准确性和丰富性。以一个法律咨询的场景为例,如果用户询问关于最新税法的问题,传统的语言模型可能只能提供基于其训练数据的答案,而这些数据可能不包括最新的税法变化,这是需要增强检索的典型应用场景。二十、通用人工智能 马斯克在24年4月时说:比人类更聪明的AGI将在两年内实现。通用人工智能是指不需要人为干预而可以自我学习、自我调整从而完全像人类一样可以执行原本只有人可以从事的任务,甚至机器人可以自行进行科学理论探索。这将是地球智能发展的奇点。------ 本文由 @李文杰 原创发布于人人都是产品经理。未经作者许可,禁止转载。 题图来自Unsplash,基于CC0协议。 如有侵权将第一时间删除。
【入门科普】必了解的 20 个 AI 术语解析(上) AI时代到来,作为职场人的我们,或许可以了解一些AI术语名词。这篇文章里,作者就介绍了一些概念,不妨来看看。本文专为非技术背景的AI爱好者设计,旨在深入浅出地介绍AI的基础概念和关键技术,从最基础的逻辑回归到复杂的Transformer模型,带您一步步解锁AI技术的奥秘。 一、逻辑回归 如果你想通过人工智能判断某人是否会患糖尿病,则逻辑回归可以通过综合分析用户的年龄、体重、胰岛素水平等等来给出一个0~1的概率值,如果阈值设定为0.7,则高于0.7的我们就归类为高风险人群,以便更早期的干预和管理风险。 二、线性回归 逻辑回归解决的是0到1的概率问题,而很多时候是我们需要具体的值,比如你在摆摊卖冰激凌,你注意到温度越高,你卖出去的冰激凌越多。 线性回归就像是你用尺子和铅笔在历史销售数据的散点图表上画一条直线,尽量让这条线贴近所有的销售点(温度是x,销售额是y)。这样,你就可以用这条线预测,在任何给定温度下,你大概能卖多少冰激凌。三、多元多项式回归 你一定发现了在前文冰激凌案例中,很显然温度对收入的影响并不是直线而是一个曲线,并且也不止温度这一个自变量。多元多项式回归就是一种可以综合考虑多个X自变量并且能得出非线性关系的机器学习算法。比如训练一个评估房价的模型,那么自变量就有:面积、房龄、距离地铁站距离、楼层数等等,自变量越多,模型越能去模拟真实世界。四、决策树 本文前三节都是基于简单的数学公式的模型,这些模型要求输入数据是数值型,这意味着在处理性别、城市、疾病类别等非数值型时,需要进行数值转化的预处理,这增加了算法复杂度,造成过拟合等问题。 决策树可以直接处理分类特征,比如训练一个诊断心脏病类型的算法模型,我们搭建有很多决策点比如:患者的胸痛类型、心电图结果,这些决策点就构成了一个决策树,每个叶节点代表一个特定的心脏病诊断。需要注意的是决策树和前三种算法并不是互斥关系,决策树的叶节点上可以包含独立的算法模型。五、随机森林 就像医生之间对于同一个症状会有不同的疾病诊断一样,对于同一个问题会无数种决策树方式,如果医生用投票的形式来最终决定是哪一个疾病诊断,这种诊断的准确性往往比一个医生的准确率高很多,这种集成多颗决策树的模型构建方式,叫做随机森林。 为什么叫“随机”森林呢?好比每个医生都是一个决策树,就算他们是从一个学校培养出来的,但他们个人接触到的病例样本不同,个人性格倾向于保守还是乐观也不同,这种随机性让每一个决策树结构都不同,所以被称之为随机森林。六、聚类 在机器学习中训练模型就好比是用“大量已知的y和x”去倒推出在“y=f(x)”中的f,比如训练一个短视频推荐算法,x是用户数据,y是用户兴趣标签,如果y的颗粒度越精准那么推荐的视频也就越符合他的胃口。 但在实际中,我们很难去给用户标注合适的y来准备足够的训练集。此时,就常用到聚类算法,他可以自行从大量x中依据数据之间的相似度来划分成多个类别,聚类常用在机器学习的数据预处理阶段。七、降维 假设你有一个信息超级全的地图,包含马路、铁路、景点、学校、医院、甚至地形海拔,但是你只是想知道从人民广场到陆家嘴要坐几号线而已,那最适合你的就只是地铁路线图而已,这种简化数据但保留重要信息的过程就叫做降维,人工智能对信息的降维可以减少计算成本(省电费、省显卡),比如,你要训练一个给脸部颜值打分的模型,那么采集到的照片背景、用户的衣服颜色等等就是多余的数据。八、卷积神经网络 卷积神经网络(CNN)最典型的运用是图像识别,它模仿人的思维,自动捕捉典型特征,比如边缘、角落、纹理等,然后他们的发现会被汇总起来,以帮助整个团队理解整张图片的内容。比如我们判断照片上的动物是不是猫,我们会最先想到的是看它的三角形的耳朵、圆胖的脸蛋、小鼻子,综合这些特征后判断是不是猫。九、循环神经网络 CNN适合处理图像或视频这种网格结构的数据,而循环神经网络(RNN)适合处理文本、语音、天气这类有时间顺序序列数据,它具有一定的记忆能力能够理解上下文关系。这个算法的缺点是容易“梯度爆炸”或者“梯度消失”,“梯度爆炸”可以类比为在阅读小说时,对之前章节非必要的细节过于沉浸无法忘怀,以至于影响了对当前内容的理解。而“梯度消失”则相当于你很快就忘记了之前的内容,使得理解当前内容变得困难。十、Transformer Transformer模型通过其独特的自注意力机制可以解决CNN中常有的“梯度爆炸”和“梯度消失”的问题,并且它不需要像RNN一样按顺序处理数据,而是可以一次性读取全部数据。就像是在一个巨大的图书馆里寻找信息,RNN是一本一本去读,而Transformer可以一次性看完,并迅速找到你需要的信息。这种方法特别适合处理语言,因为它需要同时理解句子中的每个词及其上下文关系。--- 【入门科普】必了解的 20 个 AI 术语解析(上)© 由 人人都是产品经理 提供 本文由 @李文杰 原创发布于人人都是产品经理。未经作者许可,禁止转载。 题图来自Unsplash,基于CC0协议。
AI创新再迈步!新语言模型TTT,比Transformer更高效 你能想象一种新技术,可能在不久的将来彻底改变我们与机器交互的方式吗?近日,一项名为Test-Time Training(TTT)的研究突破了人工智能领域的界限,有望替代长期占据主导地位的Transformer架构。TTT是一种全新的大语言模型架构,它通过实际的梯度下降来压缩语言模型中的上下文信息,这与传统的RNN和自注意力机制截然不同。在这一研究中,TTT层直接替代了Attention层,并展示出了与或超过当前最强大的Transformers和Mamba架构的性能。令人震惊的是,在多个模型规模上,从125M到1.3B参数,TTT不仅在理论上实现了线性复杂度,实际运行时间也更快。具体来说,使用TTT的模型在处理长上下文时更为高效,即便是在复杂度和计算资源消耗都较高的情况下,其性能也表现出色。TTT-Linear和TTT-MLP这两种实例,分别采用线性模型和多层感知机(MLP)作为其隐藏状态,展示了这一新架构的强大能力。特别地,在长达8k的上下文中,TTT的表现显著优于Mamba和原始的Transformer模型,这一结果突显了其对长序列数据处理的出色能力。此外,这项技术的实用性也得到了验证。研究中提到,使用TTT的模型在大规模TPU上的训练时间比传统Transformer模型快了10%,这一点对于追求效率的现代计算需求尤为重要。 这种新的架构方式无疑为未来的语言模型和可能的其他序列建模任务提供了新的视角和可能性。随着AI技术的不断进步,TTT可能将成为推动语言理解和生成任务新革命的关键。 如此看来,Test-Time Training不仅仅是一个技术更新,它可能是开启AI新篇章的钥匙。面向未来,我们有理由期待这种技术能够在更多的应用场景中发挥其独特的优势,从而彻底改变人工智能的发展方向。 ---- 本帖转自一览AI (一览AI原创)
ChatGPT贴吧合辑创作征集 吧友们好,为了更好地利用即将上线的“吧友共创计划”合辑功能,现正式向全体吧友征集创作帖子。chatgpt吧鼓励大家围绕AI领域的热点话题,发布高质量的帖子,共同打造专业且有深度的AI主题知识合辑。(征集截止到下周三 7月17日23点)预设合辑主题如下(3个或更多): 1. AI应用案例分析:分享AI在不同行业中的实际应用,探讨技术细节与实施成果。 2. 开源AI工具与资源:整理并评述你所使用的AI开源工具和资源,提供使用指南与心得。 3. AI伦理与社会影响:深入讨论AI技术的伦理问题及其对社会的潜在影响。 参与方式: - 在ChatGPT吧中发布您的帖子,确保您的帖子主题和内容与期望加入的合辑主题保持一致。 - 所有帖子均需为原创内容,严禁包含任何形式的广告信息。 - 发帖后请在此贴下方留言回复,并提供帖子链接,以及希望加入的合辑主题。 - 吧主将对提交的帖子进行审核,审核通过的帖子将被收录到相应的合辑中。 开放合辑主题征集: 如果你有更好的合辑主题建议,或希望发布其他符合标准的主题合辑,欢迎在下方留言并提供帖子链接。你的建议将被考虑和收集,并在官方审核通过后加入合辑列表。 -------- 合辑功能预计通过后将于本月上线,届时大家就可以在贴吧中看到这些精选的帖子合辑了。这是一个展示知识和见解,同时与志同道合的吧友们交流学习的绝佳机会。 合辑共创权益: 1. 流量扶持:优质合辑内容将获得官方流量扶持 2. 专属展示:共创合辑有专属展示样式和专属展区 3. 创作激励:创作优质合辑可获得帖吧大神,现金等激励。 合辑专属样式可预览「花吧」、「牡丹」、「睡莲」吧合辑专栏效果。期待你的参与,一起构建一个内容丰富、专业的AI学习和讨论环境! ChatGPT吧吧务
虽然AI辅助编程可以发挥巨大作用 但也会因训练限制而陷入困境 几十年来,程序员们一直在为人工智能模型编写代码,而现在,人工智能被用来编写代码,这是一个完整的循环。但是,人工智能代码生成器与人类程序员相比如何呢?发表在六月刊《IEEE 软件工程论文集》上的一项研究从功能性、复杂性和安全性方面对OpenAI 的 ChatGPT生成的代码进行了评估。结果显示,ChatGPT在生成功能代码方面的成功率范围极广--根据任务难度、编程语言和其他一些因素的不同,成功率从 0.66% 到 89% 不等。虽然在某些情况下,人工智能生成器可以生成比人类更好的代码,但分析也揭示了人工智能生成的代码存在一些安全问题。 Yutian Tang是格拉斯哥大学的一名讲师,他参与了这项研究。他指出,基于人工智能的代码生成可以在提高生产率和自动化软件开发任务方面提供一些优势,但重要的是要了解这些模型的优势和局限性。 "通过进行全面分析,我们可以发现基于 ChatGPT 的代码生成过程中出现的潜在问题和限制......[并]改进生成技术。"Tang 解释说。 为了更详细地探讨这些局限性,他的团队试图测试GPT-3.5解决LeetCode 测试平台上五种编程语言中 728 个编程问题的能力:这五种编程语言是:C、C++、Java、JavaScript 和Python。 对于 ChatGPT 为什么能在 2021 年之前更好地处理算法问题,一个合理的假设是,这些问题经常出现在训练数据集中。 总体而言,ChatGPT 在解决不同编程语言的问题方面表现相当出色,尤其是在尝试解决 2021 年之前 LeetCode 上存在的编程问题时。例如,它能为简单、中等和困难的问题生成功能代码,成功率分别约为 89%、71% 和 40%。 "然而,当遇到 2021 年后的算法问题时,ChatGPT 生成功能正确的代码的能力就会受到影响。它有时无法理解问题的含义,即使是简单的问题也是如此,"Tang 指出。 例如,在 2021 年之后,ChatGPT 为"简单"编程问题生成功能代码的能力从 89% 降至 52%。而在 2021 年之后,它为"难"问题生成功能代码的能力也从 40% 降至 0.66%。 对于 ChatGPT 为什么能在 2021 年之前更好地处理算法问题,一个合理的假设是,这些问题经常出现在训练数据集中。从本质上讲,随着编程技术的发展,ChatGPT 还没有接触到新的问题和解决方案。它缺乏人类的批判性思维能力,只能解决以前遇到过的问题。这也解释了为什么 ChatGPT 在解决旧的编程问题方面比解决新的问题要好得多。因此,ChatGPT可能会生成错误的代码,因为它不理解算法问题的含义。 有趣的是,ChatGPT 生成的代码的运行时间和内存开销比人类解决相同 LeetCode 问题的至少 50% 的方案都要小。 研究人员还探索了 ChatGPT 在收到 LeetCode 的反馈后修正自身编程错误的能力。他们随机选取了 50 个编程场景,在这些场景中,ChatGPT 最初生成了错误的编程,原因可能是它不了解手头的内容或问题。 虽然 ChatGPT 擅长修正编译错误,但它通常不擅长纠正自己的错误。 Tang 解释说:"ChatGPT 可能会因为不理解算法问题的含义而生成错误代码,因此这种简单的错误反馈信息是不够的。" 研究人员还发现,ChatGPT 生成的代码确实存在相当多的漏洞,比如缺失空值测试,但其中很多都很容易修复。研究结果还显示,用 C 语言生成的代码最为复杂,其次是 C++ 和 Python,其复杂程度与人类编写的代码类似。 基于这些结果,使用 ChatGPT 的开发人员必须提供更多信息,以帮助 ChatGPT 更好地了解问题或避免漏洞。 "例如,在遇到比较复杂的编程问题时,开发人员可以尽可能提供相关知识,并在提示中告诉 ChatGPT 哪些是需要注意的潜在漏洞,"Tang 说。
对于 AI & AGI,我有 3 个问题 在人工智能领域,关于通用人工智能(AGI)的讨论从未停歇。随着技术的发展,我们不禁思考:AGI的实现是否需要经历类似人类慢思考的认知过程?大模型的高级功能,如思维链(CoT)和反思机制,是否标志着慢思考的开始?AGI的发展是否需要一种社会达尔文主义的竞争机制来推动自我进化?这些问题触及了人工智能发展的核心,本文将围绕这三个问题展开讨论,探讨它们对AGI未来的影响。这 3 个问题,我问了很多人,大家的答案都不一样。 问题一:慢思考是 AGI 的必要前置吗? 问题 大模型的快速token输出类似于低等生物的条件反射(快思考),而人类具备深度思考(慢思考)的能力,那么慢思考是否是实现通用人工智能(AGI)的必要条件? 背景 快思考和慢思考是两种截然不同的认知模式。快思考类似于直觉和本能反应,处理速度快,但容易出错,例如大模型的token输出,以及低等生物的条件反射。而慢思考则涉及逻辑推理、深度分析等复杂过程,处理速度较慢,但结果更准确,是人类解决复杂问题时所依赖的重要能力。 目前,大模型在自然语言处理等领域表现出色,但其快速输出的本质更像是低等生物的条件反射,主要依赖于对大量数据的统计学习。与之相比,人类的慢思考则涉及更深层次的认知过程,如因果推理、抽象概括等,被认为是人类智慧的重要特征。 通用人工智能(AGI)的目标是实现具备或超越人类智能水平的人工智能,使其能够像人类一样思考、学习和解决问题。然而,当前大模型主要依赖快思考,是否意味着缺乏慢思考能力将成为制约AGI发展的瓶颈?慢思考是否是实现真正AGI的必要条件? 问题二:CoT 和调用工具,算慢思考吗? 问题 大模型的思维链(CoT)与反思(React)机制,以及调用外部工具的功能(Function Call),是否能被视为慢思考的一种体现? 背景 在人工智能领域,思维链(Chain-of-Thought,CoT)和反思(React)是两种提升大模型推理能力的技术。CoT通过生成中间推理步骤,使模型的思考过程更透明、更具可解释性。React则让模型对自己的输出进行评估和修正,以提高输出的准确性和可靠性。Function Call功能允许大模型调用外部工具(如计算器、搜索引擎),为模型提供更丰富的信息和更强大的能力。 这些技术在一定程度上模拟了人类慢思考的某些特征,例如CoT类似于人类的逐步推理,React类似于人类的自我反思。然而,这些技术是否真正具备了慢思考的本质,是否能使大模型具备深度思考的能力,仍是一个值得探讨的问题。大模型通过这些技术所展现出的“慢思考”迹象,究竟是真正的深度思考,还是仅仅是对人类思维过程的模仿?后续又会怎样发展呢? 问题三:AGI 需要社会达尔文吗? 问题 大语言模型是否能在无人类干预的情况下,自发形成类似社会达尔文主义的竞争机制,并通过淘汰其他模型来实现自我进化? 背景 社会达尔文主义认为,人类社会的发展遵循“适者生存”的自然法则,竞争和选择是推动社会进步的主要动力。在这个过程中,个体的优劣势决定了其在社会中的地位和影响力,从而影响整个社会的发展方向。大语言模型的训练过程在某种程度上也存在类似的竞争机制。 例如,在强化学习中,模型通过不断试错、评估反馈来优化自身性能,表现优异的模型会被保留和进一步训练,而表现不佳的模型则会被淘汰。这种优胜劣汰的机制是否能像社会达尔文主义一样,推动大语言模型的进化,使其不断接近甚至超越人类智能? 然而,与人类社会不同,大语言模型的进化过程缺乏人类社会中复杂的社会互动、文化传承等因素。更进一步地,大语言模型能否在人类不参与的情况下,自发形成一套类似社会达尔文主义的竞争机制,通过模型之间的相互竞争、优胜劣汰,实现自我进化?这种进化机制是否会带来潜在风险,例如模型之间的恶性竞争、垄断等? --- 本文由人人都是产品经理作者【赛博禅心】, 微信公众号:【赛博禅心】, 原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
OpenAI CEO又创办了一家AI公司 阿尔特曼成立了一个AI健康公司,要做私人个性化AI健康教练! 就在昨天,OpenAI CEO萨姆·阿尔特曼(Sam Altman)与AI医疗健康巨头Thrive Global的CEO阿里安娜·赫芬顿(Arianna Huffington)一起在《时代》杂志上发表了一篇文章,正式宣布了Thrive AI Health公司的成立。Thrive AI Health的目标是打造一个个性化“AI健康教练”,以手机App形式呈现。 目前公司CEO是Google前健康和可穿戴设备负责人德卡洛斯·洛夫(DeCarlos Love),OpenAI创业基金和Thrive Global是主要投资方。 X平台投资自媒体Startups IO发文称,Thrive AI Health从OpenAI创业基金筹集了1500万美元,目前Thrive AI Health官方并未公布具体的融资金额。今天洛夫和赫芬顿都在X平台上公布了相关信息。文章提到,睡眠、饮食、运动、压力管理和社交这五大日常行为是AI健康教练聚焦的重点,AI会提供非常精准的建议,比如“下午3点15分接孩子放学后和孩子一起散步10分钟”、“第二天早上6点要起床赶飞机,所以晚上10点开始放松准备睡觉”。 01. 用AI健康教练改变日常生活习惯 省钱省时间 所以阿尔特曼成立这家AI健康公司究竟想想做什么,用什么方式去做? 一句话总结:用AI健康教练改善慢病管理。 文章提到,目前有1.29亿美国人患有至少一种慢性疾病,美国每年4.1万亿美元的医疗保健支出中有90%用于治疗这些疾病。 在他们看来,平时生活习惯的改变是预防这些慢性病的关键,但人的行为习惯很难改变,因此他们希望通过非常个性化的AI来解决这个难题。 个性化的AI可以通过改善人的睡眠、饮食、运动、压力管理和社交五种日常基础行为,从而让人养生更健康的生活习惯。 这也是阿尔特曼这家AI健康公司的核心理念:他们希望做一个定制的、个性化的AI健康教练。 这个AI健康教练以移动App的形式呈现,这个App会包含在Thrive Global的企业产品中。▲Thrive Global官网,来源:thriveglobal.com 文章提到,这个AI健康教练会基于科学理念以及Thrive多年积累的行为改变方法进行训练,日积月累帮助人养成健康的生活习惯。 此外,这个AI还会利用一些最前沿的AI技术,比如长期记忆能力和为特定领域定制开发的行为指导AI模型。 AI健康教练会学习什么条件可以让人有高质量的睡眠、用户喜欢吃什么不喜欢吃什么,用户运动的时间、减轻压力的有效方式等等。 这样AI会给用户提供定制化的实时提醒和建议,比如提醒你按时吃药、提供更健康的饮食建议、鼓励你抽空进行短暂锻炼。 值得一提的是,这些建议会非常“精准”,比如:下午3点用柠檬水代替您的第三杯苏打水;下午3点15分接孩子放学后和孩子一起散步10分钟;由于您第二天早上6点要起床赶飞机,所以晚上10点开始放松准备睡觉。 这个文章提到,AI健康教练可以解决两个很关键的问题,总结下来,一个是钱,一个是时间。 AI健康教练可以帮很多人省钱,因为不是每个人都请得起健康导师和健身教练,也不是每个人都有时间去解决一些细小的健康问题。这颇有些“健康平权”的意味。 在阿尔特曼他们看来,大家都关注AI可以帮我提高多少效率,但AI还可以实现更基本的东西:改善人类的健康、延长寿命。 02. 请来前Google健康&可穿戴负责人 联合前沿学术机构和医疗中心 作为一家新成立的AI创企,Thrive AI Health自然少不了一些大牛的助阵。这次阿尔特曼请来了Google前健康和可穿戴设备负责人德卡洛斯·洛夫做新公司的CEO。▲DeCarlos Love 据报道,在Google工作期间,洛夫曾负责传感器、AI和机器学习算法以及健康和健身体验等方面的工作,对Google的智能手表和手表上的Wear OS都比较熟悉。 在加入Google之前,洛夫还曾在苹果和Athos担任产品职务。洛夫在X平台上发文公布了自己将上任Thrive AI Health CEO的消息。Thrive AI Health的主要资助方Thrive Global的创始人兼CEO赫芬顿也在X平台上发文表达了对AI技术应用于健康管理的期待,她认为通过AI驱动的个性化行为改变,人类终于有机会扭转糖尿病和心血管疾病等慢性疾病的发展趋势。▲Arianna Huffington 目前,Thrive AI Health已经和一些前沿学术机构和医疗中心建立了研究合作,比如斯坦福医学、爱丽丝·L·沃尔顿医学院和西弗吉尼亚大学的洛克菲勒神经科学研究所。 03. 结语:垂域大模型日渐深入 AI健康或成新风口 目前AI大模型正在各个领域加速落地,OpenAI大模型技术与医疗健康的结合也带来了新的可能,阿尔特曼的新公司代表着他向AI健康领域的又一次尝试。 当然,这一领域也充满挑战,比如个人数据隐私安全的保护,监管机制的完善,牵涉到个人健康,AI技术的应用、AI模型的训练都要更加谨慎,AI健康这个阿尔特曼早已看中的方向,是否能涌现出更多潜力,我们拭目以待。
PathChat:多模态病理检测 AI 多年来,计算病理学在病理形态数据分析、分子检测数据分析等领域取得了长足进步,这一由病理学与 AI、计算机视觉等技术交叉形成的细分研究领域正逐渐成为医学图像分析领域的研究热点。 计算病理学是利用图像处理与 AI 技术构建 AI 计算病理模型,获取组织病理学图像,并对组织病理学图像形态外观进行初步评估,以实现通过自动图像分析技术辅助诊断、定量评估及决策。 目前,随着以 ChatGPT 为代表的生成式 AI 技术爆炸式增长,多模态大语言模型(MLLM)越来越多地应用于计算病理学研究和病理学临床实践中。但在专业度较高的解剖病理学子领域,针对病理学构建通用、多模态 AI 助手的研究仍处于初级阶段。 在这项工作中,研究团队设计了一款专门用于人类病理学研究的多模态生成式 AI 助手—— PathChat。他们通过自我监督学习对来自 100 万多张切片的 1 亿多个细胞组织图像片段进行预训练,并与一种 SOTA 纯视觉编码器 UNI 相结合,生成一个能对视觉和自然语言输入进行推理的 MLLM,在对 45 万多条指令数据集进行微调后,构建出了 PathChat。 研究发现,PathChat 不仅能够处理多模态输入,还可以对病理学相关的复杂询问做出准确的回答,在近 90% 的情况下都能从活检切片中正确识别疾病。 超越 GPT-4V,准确率近 90% 为测试 PathChat 的检测性能,研究团队将 PathChat 与开源模型 LLaVA、专为生物医学领域定制的 LLaVA-Med 及 GPT-4V 进行了比较。 他们设计 PathQABench 对比实验,通过分析来自不同器官部位和实践的病理病例,对比了 PathChat 与 LLaVA、LLaVA-Med、GPT4V 的检测性能。结果显示,在不提供临床背景的情况下,PathChat 的诊断准确率明显优于 LLaVA 1.5 和 LLaVA-Med,在只评估图像的情况下,PathChat 在全部组合基准上的准确率为 78.1%,比 LLaVA 1.5 的准确率高 52.4%,比 LLaVA-Med 的准确率高 63.8%。 在提供临床背景后,PathChat 的准确率进一步提高到 89.5%,比 LLaVA 1.5 的准确率高 39.0%,比 LLaVA-Med 的准确率高 60.9%。 通过对比实验发现,PathChat 可以从图像的视觉特征中获得大量的预测能力,而不仅仅依赖于临床背景,它只需要通过普通自然语言提供的非视觉信息,就能有效、灵活地利用多模态信息准确地诊断组织学图像。 为了客观地评价每个模型对开放式问题回答的准确性,研究团队招募了 7 位病理学家,组成评估小组,通过对比 4 个模型对 260 个开放式问题的回答,分析模型检测的准确度。最后,在七位专家能够达成共识的开放式问题上,PathChat 的总体准确率为 78.7%,比 GPT-4V、LLaVA 1.5 和 LLaVA-Med 分别高出 26.4%、48.9 和 48.1%。总的来说,与其他三个模型相比,PathChat 都表现出了更优的性能。 研究人员表示,PathChat 可以分析和描述病理组织图像中微妙的形态细节,而且除了图片输入以外,还能回答需要病理学和一般生物医学背景知识的问题,有望成为病理学家和研究人员的重要辅助工具。 尽管 PathChat 在实验中表现出色,但其在实际应用中仍面临一些挑战。例如,如何确保模型能够识别无效查询并避免错误输出,如何保持与最新医学知识的同步更新等。此外,PathChat 的训练数据主要来自历史数据,这可能导致其反映的是 “过去的科学共识” 而非最新信息。 研究人员表示,未来的研究可能会进一步增强 PathChat 的功能,包括支持整个千兆像素 WSI 或多个 WSI 输入,以及集成更多特定任务的支持,如精确计数或定位对象。此外,将 PathChat 与数字幻灯片查看器或电子病历等工具集成,或许也将更有利于提高其在临床实践中的实用性。 日前,多模态生成人工智能模型 PathChat 2 发布,其可对病理图像和文本进行推理,在交互式幻灯片查看器中接受多个高分辨率图像和文本的交替输入,从而对每个咨询案例进行更全面的评估。 与 PathChat 1 相比,它在鉴别诊断和形态描述方面的性能有了大幅提高,在指令跟踪和执行开放式问题解答和报告总结等各种任务方面的能力也更强。 Modella AI | PathChat 2 http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fwww.modella.ai%2Fintro.html&urlrefer=50b28bc5532f10f7af57bac50e12c968
阿里云创始人王坚:AI是企业革命的工具,还是工具的革命? “对于小企业而言,AI是革命的工具;对于大企业而言,AI一开始是工具的革命。” 7月4日,2024世界人工智能大会在上海召开。在下午举行的产业发展主论坛上,中国工程院院士,之江实验室主任,阿里云创始人王坚在与傅盛猎豹移动董事长兼CEO傅盛、亚马逊前首席科学家安德雷斯·韦思岸的三人对谈中,回应了AI商业实践、AI能耗等热点话题。去年以来,大模型如雨后春笋般涌现。仅仅在国内,战局就已经从百模大战向千模大战升级。今年,人们对AI热情不减,人工智能是否会催生出新模式、新业态? 业界的共识是,ChatGPT、微软Copilot等应用为个人工作生活带来的帮助非常明显。然而,在企业端,AI彻底融入业务流程似乎并不容易。大模型在企业级应用上存在哪些问题,又将如何解决? “对大企业而言,面对新技术有两种选择:利用新技术延长生命周期,或者通过采用新技术实现企业的彻底转型。”王坚指出。 苹果在今年的全球开发者大会WWDC上发布了AI系统——“Apple Intelligence”,这一系统集成了诸多AI功能,苹果还宣布将ChatGPT的GPT-4o引入Siri 等产品。在王坚看来,苹果并非以AI技术服务C端客户,而是用AI服务从操作系统开始重构了自己的公司。 “在一开始,小企业会觉得AI是革命的工具,大企业一定会觉得AI是工具的革命。当大企业意识AI可以作为革命的工具时,一轮大的变革将会到来。”王坚这样解释人工智能在企业端应用的发展和变化。 AI融入千行百业,人们在惊喜于其带来的效益提升的同时,也会担心这个“新伙伴”导致电力被过量使用。 王坚认为,从空间维度来看,我国一年的发电量比美国、日本、俄罗斯一年总和还要多。“或许我们最不需要担心这个问题。” 站在时间维度,30年以后,算力与电力之间的关系或许会是个瓶颈。但他认为,这是个动态的过程,人类很难站在当下,想象如何解决10年之后的问题。 王坚认为,新技术的出现带来的最大变化是,人们将对许多习以为常的事情进行重新评估。在他看来,当下人工智能这一概念的涵义与数十年前相比本身就有很大程度的不同,技术发展面对的问题自然也一样。 “不过,我是个无药可救的技术乐观主义者。”王坚坦陈。在他看来,任何人类产生的问题,最后都会在发展中被解决。过去每一个变革节点带来的恐慌不一定比今天的AI带来的小。“但我们都走过来了。”他说。 环绕人工智能的疑问、担忧与风险十分复杂,解决它们不可能一蹴而就。“未来十年将是人工智能发展激动人心的关键时期。”王坚指出,人工智能是少数几种会对人类的基础设施建设产生极大影响的技术。它带来的变化可能改变人类的行为习惯,甚至将重新定义社会规范。 “无论是哪个地区或国家,如果能够最早面对人工智能带来的问题,并找到有效的治理方法,那么它就可能走在这个时代的前面。”王坚表示。 --- 本文转自时代财经 本文来源:时代财经 作者:王夏
在2024世界人工智能大会,比ChatGPT更火的是人形机器人 今年的世界人工智能大会,人形机器人大放异彩。 从北门进入世博展览馆,一排由人形机器人组成的“十八罗汉”几乎被观众围得水泄不通。除了这些人形机器人,本届大会展出了国内首秀的特斯拉人形机器人Optimus(擎天柱)二代,还发布了国内首个全尺寸开源通用人形机器人青龙,受到市场多方关注。 如果说2023年世界人工智能大会人人都在谈论的是ChatGPT,那么,在2024年的大会现场,人形机器人的热度已经不输通用大模型。在首日的人形机器人主题论坛上,甚至有企业家表示,“具身智能才是实现AGI(通用人工智能)的最有效途径,OpenAI的大方向大概率是错的”。 对于ChatGPT的迷信似乎正在打破。快速火热的人形机器人赛道,正在迎来产业化“蝶变”的关键时刻。 未来3到5年是关键时期 特斯拉的Optimus仍然是业界的风向标。在本次世界人工智能大会上,特斯拉Optimus二代在上海首次亮相,吸引了大批的观众。 需要注意的是,此次特斯拉带来的Optimus二代人形机器人为静态模型机,并不能在现场进行动态展示。事实上,Optimus二代的动态效果此前只在特斯拉官方视频中进行过披露。现场有业内人士表示,特斯拉从未将原型机在线下展出可能出于两个原因:一是人形机器人仍在训练的过程中,产品功能还有待完善,二是为防止机器人商业信息提早泄露或被拆机,上市前不会让外界接触其原型机。特斯拉Optimus人形机器人吸引了大批观众关注。 无论是出于哪一种考虑,在官方口径里,特斯拉的这款机器人会在2025年年底前量产上市,届时将有超过1000个Optimus二代被投放到特斯拉工厂,帮助员工完成生产工作。特斯拉的目标是在未来达到年产10亿台,占据市场10%以上份额。 这似乎像一个倒计时,不断地提醒着国内企业,人形机器人的产业化迫在眉睫。现场多家人形机器人企业的工作人员告诉记者,目前国内做人形机器人的企业越来越多,他们预计国产AI人形机器人的商业落地时间在3到5年。 不过,也有专家表示,如果3年之后,人形机器人还不能很好的实现AI与硬件的适配融合,完成商业落地,那么也不排除人形机器人赛道被摒弃,AGI向异形机器人赛道转变的可能。未来一段时间可能是人形机器人产业化的关键时期。 为什么是人形机器人? 回到开头的观点,人形机器人正在打破国内人工智能产业对ChatGPT的迷信,其背后原因也有一些中国特色。 本次世界人工智能大会上,另一款大热门人形机器人——青龙由国家地方共建人形机器人创新中心(简称“国地中心”)研发。国地中心技术负责人邢伯阳告诉记者,从开发到发布,这款人形机器人只花了6个月的时间。 人形机器人是集成度极高的产品,国地中心为什么能这么快完成?这与长三角的机器人产业基础有很大关系。 据介绍,青龙人形机器人的很多零部件都是长三角造,其安装的“大脑”朱雀也是由科大讯飞星火大模型和书生浦语大模型支持。 在青龙人形机器人展台业内人士对记者表示,国内工业自动化产业发展得早,近两年大模型又发展势头迅猛,基础良好。“上海有上海人工智能实验室,还有这么多互联网企业,要想实现AI+人形机器人其实很快”。 青龙人形机器人在展台进行动态演示。© 由 解放日报 提供青龙人形机器人在展台进行动态演示。 中国有做机器人的基础,通过具身智能有可能更快地让人工智能产业落地、商业闭环,这是人形机器人赛道愈发火爆的关键原因。而反过来看,以ChatGPT为代表的大语言模型已经爆火近两年时间,产业化的问题在逐渐暴露,这也是更多人将眼光投向人形机器人赛道的重要原因。 王兴兴在展会论坛中表示,目前的大语言模型、多模态模型实际上对整体世界的理解非常差。“大模型对平面数据的理解做得非常好了,但对时间、空间的理解还远远不够。”王兴兴认为世界模型+具身智能才是通向AGI的最佳路径。他表示目前全球顶尖的科学家都在推动世界模型的构建,让机器人真正理解整个世界,进入到工厂、家庭这样的场景帮人类完成劳动。 规模化数据是行业最大痛点 一个赛道的迅速火热,必然伴随着浮躁。 邢伯阳表示,现在的人形机器人商业化现状企业有点混乱,一代人形机器人的方案已经比较成熟,甚至会有解决方案提供商专门卖控制算法,60万元就能让人形机器人动起来。但一代人形机器人的实际应用非常有限,要想实现广泛的商业应用,还是要让AI赋能人形机器人。 但AI赋能还面临着很多挑战。大模型植入机器人快,但要想适配应用场景还很难。目前市面上开发的二代机器人大多采用“大脑+小脑”的AI赋能模式。比如青龙,就配置了“朱雀”多模态大模型作为“大脑”,用于接收外界信息和任务决策;“玄武”模型作为“小脑”,用于控制机器人运动轨迹、具体任务执行。 “大脑”模型,即多模态大模型,这在当前国内市场有很多选择。但“小脑”模型需要每个人形机器人开发机构自己构建,并且针对未来人形机器人的应用场景,进行专门化的动作训练,才能适配应用场景。 在训练“小脑”的过程中,最难的数据积累。邢伯阳认为,人形机器人规模化数据是整个行业目前最大的痛点。现在人形机器人开发机构使用的数据,一方面是来源于国外的开源数据,一方面是来源于自己采集的数据。但自己采集数据的缺点在于,企业需要使用大量的人力进行重复动作,成本很高。 北京大学助理教授、北大—银河具身智能联合实验室主任王鹤在前述论坛中提到,在特斯拉的公开信息中,为训练Optimus二代人形机器人放置电池到红盒子里这一个动作,特斯拉就出动了40人的数据采集团队去做,用这样高成本的数据采集方式去替代一个可能几千元的人力成本,对商业转化是非常不友好的。 为了解决规模化数据的痛点,业界也做了不少尝试。王鹤认为,合成数据可能是获取大体量数据的关键技术。还有机构则在推动数据开源,通过共享来降低数据获取成本。 在本届世界人工智能大会上,国地中心除了发布青龙人形机器人,还推出了OpenLoong开源社区。建立开源社区就是为了能够聚集更多应用单位、人形机器人整机制造商以及核心部件的上下游企业,推动人形机器人领域的开源发展,加速技术创新和产业应用。
ChatGPT使用指南 随着ChatGTP的发展,人们用它来应用于工作的各个方面。本文总结了ChatGPT实用指南,不太了解的小伙伴可以看一下。 一、ChatGPT介绍 1. 什么是ChatGTP? ChatGPT是一个人工智能问答聊天工具,基于OpenAI开发的大型语言模型GPT,可以与用户进行自然语言交互,回答问题、提供信息、解决问题和提供建议。ChatGPT基于大规模的预训练数据集进行训练,掌握了广泛的知识领域,并能理解和生成自然语言。它可以处理各种问题,包括常见的百科知识、实用信息、技术支持、创意灵感等等。我们可以借助ChatGPT来高效学习和解答疑惑。虽然AI的能力还没法进行体系化、系统性的详细教学,但是非常适合用来提供碎片化、即时性的帮助。2. 什么是提示工程? 在和ChatGPT的交流过程中,了解如何有效与其进行沟通是很有用的。我们和AI的整个交流过程,都围绕着给AI写“提示”命令。我们可以把“提示工程”定义为创建给AI的输入的过程。提示输入将影响AI语言模型生成的输出,并且呢,高质量的提示输入将产生更好的输出。 3. 大语言模型背后的原理大语言模型的原理是通过训练神经网络模型预测下一个单词的概率分布,实现文本生成和理解的功能。这一切是通过训练大规模数据集来实现的,数据集包括文章、书籍、期刊、报告等。根据语言模型的不同,有两种主要的学习方法 - 监督学习和无监督学习。监督学习是模型使用带有正确答案标签的标记数据集。无监督学习是模型使用未标记的数据集,那么模型必须分析数据来获得准确的回答。 模型能够根据给定的提示生成文本,这个过程被称为语言建模。在这一点上,AI语言模型的性能主要取决于训练数据的质量和数量。使用来自不同来源的大量数据来训练模型将有助于模型理解人类语言,包括语法、句法和语义。 大语言模型的训练过程分为两个主要步骤:预训练和微调。 在预训练阶段,大规模的文本数据被用来训练模型。该模型被要求预测给定上下文中的下一个单词或字符。通过在大量文本数据上进行这种预测任务,模型学习到了语言的统计规律、句法结构和语义关系。 在微调阶段,使用特定的任务数据集对预训练的模型进行进一步的训练,以使其适应特定的应用场景,比如说问题回答、文本生成、机器翻译等。 大语言模型的关键思想是通过上下文信息的输入,以及模型对语言统计规律的理解,生成合乎逻辑和连贯的输出文本。模型能够根据之前观察到的输入文本生成接下来的文本,并根据上下文调整生成的输出。这种能力使得大语言模型可以用于自动生成文章、回答问题、对话交互等多种自然语言处理任务。 二、如何和ChatatGPT交流 1. 使用ChatGPT的核心结果的质量取决于输入的质量。 2. 提示组成结构角色 | 任务 | 背景 | 输出 1. 角色: 希望AI扮演什么角色? 2. 任务: 希望AI做什么? 3. 背景: AI需要哪些信息才能完成这一行动?在这里把具体信息给它。 4. 输出: 希望AI输出的格式是什么? 例子1: 角色:你是一位经验丰富的市场专员,擅长为各个行业和市场创建用户故事地图。 任务:以表格形式创建一个类似于[lbk]某个具体产品[rbk]的产品的示例用户故事地图。 背景:产品或网站类型:[lbk]提供对产品或网站的描述,包括其主要特点、功能、目标受众和价值主张。[rbk] 行业:[lbk]确定产品或网站所在的行业或市场细分,并指出任何关键趋势或挑战。[rbk] 输出:创建一个表格形式的顾客旅程地图,包括阶段、任务、用户需求和用户目标,与产品或网站的整体用户体验相匹配。 例子2: 角色:你是一位熟练撰写产品需求文档(PRD)的产品经理。 任务:根据提供的信息撰写一份全面的产品需求文档(PRD)。 背景: 业务目标:[lbk]描述与此产品或功能相关的业务目标。[rbk] 产品愿景和战略:[lbk]解释产品或功能的整体愿景和战略,包括其目的、目标受众和独特卖点。[rbk]关键特点和功能:[lbk]提供应包含在产品或功能中的关键特点和功能列表。[rbk] 技术细节:[lbk]包括与产品或功能相关的任何高级技术细节,例如平台、技术集成、限制等。[rbk] 时间安排:[lbk]大致说明产品或功能的开发和发布预期时间。[rbk] 成功指标:[lbk]概述用于衡量产品或功能成功的指标。[rbk] 输出: 按照以下部分构建PRD: 问题 解决方法 产品概览 功能性需求 非功能性需求 解决方案 对齐关键功能点 未来考虑事项 关键逻辑 —— 转自人人都是项目经理转自
ChatGPT Mac以纯文本形式存储对话 恶意软件可实时获取敏感数据 上个月 OpenAI 宣布 ChatGPT for Mac 版面向所有用户开放,用户借助 ChatGPT 官方客户端可以快速进行文本对话、生成图片、读取屏幕截图或文件、搜索对话等。 然而即便是 OpenAI 这种规模的公司竟然也在安全方面存在弱点,ChatGPT for Mac 版使用纯文本形式将用户的所有对话保存在本地磁盘上。 这意味着任何在 Mac 上运行的应用程序、进程或恶意软件都可以直接读取用户的完整聊天内容而不需要进行任何授权,这可能造成用户私密数据泄露。实际上从 2018 年发布的 macOS Mojave 10.14 版开始,苹果就引入了新安全功能用来阻止其他应用程序访问私人数据,需要访问私人数据时系统将弹出提示,必须由用户同意后才能访问。 OpenAI 在开发 ChatGPT for Mac 版时并未使用苹果推荐的设置,将其用户数据存储在沙盒中,相反 OpenAI 将其存储在~/Library/Application\ Support/com.openai.chat/conve…{uuid}/ 存储在不受保护的路径中也就算了,OpenAI 还没有对用户的数据进行加密,这种情况下想要窃取用户的完整聊天内容就是非常轻松的事情了。 科技爱好者 Pedro Jose 发现该问题后在 Meta Threads 上发布了演示视频,随后 OpenAI 也注意到了用户反馈,立即发布新版本进行修复。 目前在 ChatGPT for Mac 最新版中 OpenAI 已经将数据改成加密存储到本地,虽然还是没有放到沙盒中,不过现在读取文件后也是被加密的,相对来说提高了安全性。 建议使用 ChatGPT for Mac 版的用户立即升级到最新版本确保安全,你可以在 OpenAI 官网下载最新版安装包。
奥迪与OpenAI一拍即合,奥迪汽车将引入ChatGPT技术 伴随着手机厂商的跨界入局,以及新势力等新能源造车的迅猛发展,对于老牌汽车厂商来说,在汽车的智能交互上造成了一定的冲击,尤其是对于一些传统的燃油车品牌,而为了更快的提升汽车座舱内的智能交互体验,显然寻找他企合作是最快速的方法。近日,奥迪就宣布与微软OpenAI达成合作,一个是汽车里面的豪华品牌,一个是人工智能领域的引爆者,两者一拍即合达成合作,奥迪宣布计划从今年的7月份起,为约200万辆汽车接入ChatGPT,从而提升汽车的语音交控能力。具体哪些车型可以接入呢?一部分是自2021年以来生产、配备第三代模块化信息娱乐系统(MIB 3)的奥迪车型,以及类如Q6 e-tron新车型以及未来搭载E3 1.2电子架构的车型,而新车型以及未来的车型将通过Cerence Chat Pro接入ChatGPT,作为奥迪助手(Audi assistant)的扩展。通过“嘿,奥迪”或者方向盘上的“一键通”即可调用ChatGPT,可以通过语音来控制娱乐、导航、空调设置等,另外还能智能识别执行车辆功能以及回答一些常识性的问题。 但是问题来了,由于ChatGPT在国内不可用,所以奥迪在国内要寻找新的伙伴。不过,此前有消息爆出,奥迪正在计划与华为合作,将采用华为的智驾系统,至于是否会落地,还有待进一步消息确认。
生成式AI上车,大众高尔夫、途观、帕萨特海外版现已支持ChatGPT 大众汽车宣布配备新一代信息娱乐系统的车型现已加入对 ChatGPT 的支持。 在欧洲地区,引入 ChatGPT 的车型包括纯电动 ID.系列、新款高尔夫、新款途观、新款帕萨特,用户可通过车辆内置 IDA 语音助手访问 ChatGPT。据介绍,AI“上车”之后带来的体验远远超出以往,用户可以要求汽车直接读出搜索结果,或使用自然语言与汽车进行交互。例如,接入 ChatGPT 的车机可以提供旅游景点信息、报道过去的足球比赛或帮助解决数学问题。驾驶员只需用自然语言与助手交谈,无需将视线从道路上移开。 与现有的车载语音助手相比,新系统主打“对话式”和“自然”交互。当乘客说“我冷”时,系统就会打开空调;当乘客说“我需要面包”时,系统便会帮你找到附近的商店。除此之外,新系统还能提供更丰富的功能,例如朗读详细的菜谱或儿童故事,让旅途更加充实有趣。 若当地大众车主已经注册了 VW Connect 互联助手账户,就可以在无需注册额外账号的情况下使用升级后的语音助理。若车机内置的语音助理无法回答用户问题时,就会转接给 ChatGPT,再由语音助理“念”出答案。大众汽车承诺,ChatGPT 绝不会访问车辆数据,且问答内容会立即删除。 据此前报道,今年 CES2024 大展期间,大众汽车技术开发负责人 Kai Grünitz 称:“对我而言,这(车载 ChatGPT)不仅仅是一个噱头。我们通过研究家庭智能系统,例如亚马逊的 Alexa 和 Echo,了解到用户的使用习惯。我们希望在车内也能提供同样便捷和流畅的交互体验。”
博通:VMware ESXi后续界面/支持文档/客户支持不再支持简体中文 6 月底博通旗下虚拟化软件 VMware ESXi 8.0 Update 3 版发布,此次更新博通在支持文档中提到将减少支持本地化语言的数量,后续支持本地化语言只有法语、日语和西班牙语。 VMware ESXi 默认情况下是以英语提供的,此前支持还支持简体中文、繁体中文、意大利语、德语、韩语和葡萄牙语 (巴西),现在这些语音都已经被放弃支持。 博通在支持文档中称,后续 VMware ESXi 用户界面、帮助文档和客户支持都仅提供英语版或法语、日语、西班牙语支持,其他语言都将不再支持。这对使用 VMware ESXi 的用户来说会有几个问题: 第一个是用户界面不再支持本地化语言,例如使用简体中文的企业后续只能将界面设置为英语,当然现在的语言包也可以继续使用但后续不会继续提供更新。例如当有新的功能设置时,启用简体中文语言包的情况下旧设置仍然是中文呈现,但新的设置选项和说明都会以英文呈现。 第二个是支持文档问题,原本 VMware 提供多语言版本的支持文档和客户支持,现在用户只能浏览英语或法语、日语、西班牙语版,对简体中文用户来说可能需要依靠谷歌翻译等功能将文档翻译为中文。 第三个也是最重要的问题是客户支持,当企业遇到问题时可以通过工单系统获得 VMware 提供的支持,而在后续企业只能使用英语等语言提交问题,不能再使用简体中文等语言提交,这对企业来说可能会造成一些沟通障碍。 尽管这些问题都可以通过翻译软件解决但缺少本地化语言支持毕竟还是不方便的,不知道博通收购 VMware 后为什么会做出这些奇怪的决定,毕竟本地化对软件产品的竞争力也有一定提升。 根据博通说明,弃用本地化语言的支持是从下一个主要版本开始,这里说的可能是 VMware ESXi 未来发布的 8.1 版?但也有可能从 VMware ESXi 8.0 Update 4 开始就直接弃用。 砍掉本地化支持团队或许能够帮助博通节省一些员工薪酬开支,不过不知道这种情况是否会让一些企业转向其他虚拟化软件例如 PVE 等。 顺便说一句,博通此前已经发布通知,后续客户支持方面都由代理商提供而不是 VMware 自己的工程师团队为客户提供支持,然而代理商团队的专业性要比 VMware 自己差得多,这也可能会给企业客户造成问题。
AI生成内容不得超过20%,国内高校首次公开发布人工智能使用指南 “要携手人工智能,借助人工智能弥补自然人类的某些缺憾和不足;要驾驭人工智能,要用全面而多样的思维能力超越知识无限的人工智能;要实现智慧超能,在人类新文明的曙光中,获得幸福。”华东师范大学校长钱旭红在2024届毕业典礼的这段寄语在网络刷屏。 “AIGC(生成式人工智能)首先改变的是教育。”今年5月,在百万字人工智能小说《天命使徒》发布会上,华东师范大学传播学院院长王峰就曾这样表示。 近日,王峰带领的团队又完成了一件“大事”——由华东师范大学传播学院与北京师范大学新闻传播学院联合发布的《生成式人工智能学生使用指南》,成为国内高校公开发布的第一份生成式人工智能学生使用指南。联合发布会上,两家学院表示,这一使用指南目前适用于两家学院超过1400名在校本科生和硕博研究生,未来将不断推动更多跨高校、跨专业院校加入人工智能学生使用规范的共同建设。大学课堂如何应对AI对人文创作带来的影响?王峰带领的文学计算团队今年以来在智能文学和文学地图绘制方向上成果连连:除了人工智能小说《天命使徒》,还有《西游记》数字文学地图上线内测。用王峰的话来说,“人工智能时代,大学的围墙已延伸至宇宙尽头”——随着人工智能深度介入教育,学习资源广泛可得,智能学习辅助无所不在,大学将从单向的学科知识传授转变为鼓励主动探索的殿堂,人工智能将成为重要的学习和科研工具。 去年9月,联合国教科文组织发布《教育与研究领域生成式人工智能指南》,呼吁各国政府通过制定法规、培训教师等,规范生成式人工智能在教育中的应用。 此次京沪两家高校传播学院发布的《生成式人工智能学生使用指南》提出,从事AIGC开发应用的学生需了解并遵守国家相关法律、政策规定及伦理规范;学生在使用AIGC时需要遵守国家、学校和学院的学术道德规范。 其中,最引人关注的一条规则是——使用AIGC时应进行标注,且直接生成内容不超过全文的20%。《指南》中表示,学生在符合学术诚信的前提下,可根据自身学业需要规范地使用AIGC。学生需要将AIGC直接生成的内容与学生个人的学术贡献分开,并明确标注AIGC在学生学业相关任务中的贡献。对AIGC直接生成内容的部分需标红,直接生成的内容不能超过全文的20%。在个人创作基础上进行润色、辅助编辑等行为不属于AIGC直接生成。 《指南》同时提出,学生对AIGC生成的内容要进行必要自查,对有争议的内容进行人工修正或说明,包括但不限于准确性、知识产权、数据隐私等。最终学生应对其提交的全部内容负责。如何使用AIGC,需要参考各院系结合学科特点制定的AIGC使用规定。对新闻传播相关学科而言,使用细则包括尊重知识产权、保护隐私安全、抵制虚假信息、维护网络生态、遵守教师课程要求。 “我们既不能‘神话’AI,也不能拒绝AI,而是要善用AI。”北京师范大学新闻传播学院博士生任吴炯表示,AI可以成为学术科研助理工具,辅助创新,但不是直接进行创新。 有两年AI产品和游戏策划从业经历的华东师范大学思勉人文研究院研究生魏萱用“跳入水中”形容新一代对AI的态度,“相较科技本身的问题,更重要的是如何使用科技的问题。”魏萱是王峰带领的AI文学写作团队成员之一,负责设计工作流程,“未来我们更多地要成为AI助理的管理者和领导者这样的角色。” “这份《生成式人工智能学生使用指南》经过学院学术委员会和教学委员的讨论、研究、审议。”北京师范大学新闻传播学院院长张洪忠介绍。 王峰坦言,《指南》的出炉难点在于“没有比对标准,很可能在冒险”,目前规定的AI直接生成内容不得超过20%参照了论文查重率的要求。 “最令我们‘纠结’的是如何定义AI直接生成的内容,讨论最激烈的则是如何判断是否为AI直接生成的内容。”王峰直言,《生成式人工智能学生使用指南》与其说是考验学生,更是对教师提出了更高的教学要求。“目前我们可以依赖的不完全是技术方法,还是教师的经验和人工甄别。我们希望这份《指南》传递一种学术科研的态度:可以使用AI,但必须诚信使用。”
【吧友专属】遇到问题?别担心,PLUS服务在此,吧主随时待命! 作为吧务,我们一直在寻找更好的方法来帮助大家解决遇到的问题。目前出现了很多AI模型包括C哈他GPT,可以帮助我们,但对于有些吧友,出于某些原因可能暂时无法使用O喷AI的服务,或者使用的是免费版,可能在处理一些复杂的任务时遇到一些限制,又或者可能已升级PLUS服务但还不太了解如何使用。 不要担心,这正是我们聚集在这里的原因!在竞选吧主时,我承诺会帮助大家解决问题,于吧友共建,这一承诺,不仅因为这是吧主的责任,更因为我真心热爱这个吧并在意每一位吧友的感受。 如果你遇到任何问题,不管是简单还是复杂的,都可以在这里留言回复,我们将在这里一起讨论:• 描述你遇到的问题: 请尽可能详细地回复并描述你遇到的问题或困扰。这会有助于我们更准确地理解问题,并生成提示词,更有效地使用PLUS服务为你提供解决方案。 • 指定所需模型: 如果你对哪种模型更有信心(如文本生成、图片分析等),也请告诉我。如果你不确定,描述你的需求即可,我会帮你选择最合适的模型。 我将默认使用PLUS服务中的GPT-4模型为你快速生成解决方案,并提供详尽的解答。无论你的需求多么特别,都会尽其所能,为你提供最细致的解决方案。chatgpt吧是一个互帮互助的大家庭。在这里,我们随时准备帮助吧友解决任何问题。 期待大家的留言和参与讨论!也期待其他热心大佬们,回复提供帮助。 再次感谢吧友们为帖吧贡献智慧。 #PLUS# #ChatGPT# #OpenAI# #提示词# #GPT-4# #GPT-4o#
【个人信息保护】针对诱导不知情用户参与身份验证行为的治理公告    近日,微信安全中心发布《针对诱导不知情用户参与身份验证行为的治理公告》提醒用户警惕诈骗新手法,不做电诈工具人。 虽然在ChatGPT吧中讨论微信的公告可能初看似乎与我们吧的主题不相关,但鉴于该公告涉及网络安全和个人信息保护,这些都是ChatGPT吧关注的领域,它实际上与我们关注的安全主题是相契合。微信安全中心发布的这一公告提醒用户警惕通过身份验证参与的诈骗新手法,这是网络安全领域中一个重要的话题。通过讨论,我们能够提升吧友对个人信息保护的意识,提高对网络安全的认识,避免成为电信诈骗的受害者。 我们应该时刻保持警惕,不仅要保护自己的账号安全,还要防止不知情地帮助诈骗者进行违法活动。请大家在参与任何形式的身份验证前,仔细核实对方的身份和请求的正当性,确保我们的网络行为安全合规。 ---   公告全文如下:   为了给广大用户提供绿色、安全的上网环境,微信高度重视打击平台内的违法违规行为,一旦发现各类违规账号,将核实证据并及时处理。   随着微信治理力度不断加强,不法分子可用的微信账号数量越来越少,于是他们将目标转向普通用户,通过诱导不知情用户参与身份验证来完成账号的注册或解封,进而实施骚扰、虚假营销、欺诈等违规行为。   为保护用户权益、肃清平台环境,微信团队将继续加强对此类违规行为的打击处理。   《微信个人账号使用规范》中明确规定:不仅“诱导或欺骗他人为自己注册、解封微信账号进行辅助验证”属于违规行为,“恶意为他人注册、解封微信账号进行辅助验证”也属于违规行为。所以提醒广大用户,注意保护个人隐私信息,不随意为他人进行辅助验证,警惕诈骗新手法,不做电诈工具人。   警惕诈骗新手法   不做电诈工具人   ▼   / 1 /   ❌ 辅助注册、解封免费送礼    实为黑产辅助验证   不法分子冒充微信团队在路边摆摊,声称“官方”正在举办安全辅助功能的推广活动,以免费送口罩、咖啡、气球、水杯等小礼品的方式利诱普通用户参与扫码,辅助他们进行微信注册或解封验证。   还有一些“线上网赚平台”将辅助注册、解封包装为兼职、任务分派等多种有偿形式蒙骗普通用户参与其中。   违规示例▼  / 2 /   ❌ 无抵押贷款    实为采集个人信息用于辅助验证   不法分子在网上发布无抵押贷款消息,将受害人哄骗至线下,以办理贷款业务为由收集受害人的银行卡、身份证等个人隐私信息,并要求受害人现场配合人脸识别验证。   实际上不法分子偷偷使用受害人身份和人脸辅助黑灰产解封账号,最后再以不符合贷款资质、需要缴纳相关费用为由让受害人离开,导致受害人账号在不知情的情况下由于恶意辅助验证被封。   违规示例▼   微信安全中心提醒   帮助他人进行安全辅助验证时   请仔细核实对方身份  转发扩散!提醒所有人! ---   转自:微信安全中心
首页 2 3 4 5 6 7 下一页