LearnerForever LearnerForever
永远是你们的小吧,也希望吧友们开心快乐每一天。
关注数: 1,483 粉丝数: 2,227 发帖数: 25,799 关注贴吧数: 58
OpenAI 宣布领导层变动。 2023年11月17日: 技术总监米拉·穆拉蒂被任命为临时首席执行官,负责领导OpenAI;山姆·奥特曼离开公司。 正在进行搜索过程以确定永久继任者。OpenAI公司董事会,即作为所有OpenAI活动的总管治机构的501(c)(3)组织,今天宣布,山姆·奥特曼将卸任首席执行官并离开董事会。公司的技术总监米拉·穆拉蒂将立即担任临时首席执行官。 作为OpenAI领导团队的成员五年,米拉在OpenAI发展成为全球AI领导者方面发挥了关键作用。她具有独特的技能组合,对公司的价值观、运营和业务有深入的理解,并且已经领导公司的研究、产品和安全功能。鉴于她在公司各个方面的长期任职和密切参与,包括她在AI治理和政策方面的经验,董事会认为她对这一角色有着独特的资格,并期待在进行正式寻找永久首席执行官的同时,实现无缝过渡。 奥特曼先生的离开是在董事会进行了审慎的审查过程之后,该过程得出结论,他在与董事会的沟通中不总是坦诚,妨碍了董事会执行其责任的能力。董事会不再对他继续领导OpenAI有信心。 董事会在一份声明中说:“OpenAI的成立是为了推进我们的使命:确保人工普遍智能造福全人类。董事会仍然全力支持这一使命。我们感谢山姆对OpenAI的创立和成长所做的许多贡献。同时,我们相信随着我们的发展,新的领导层是必要的。作为公司研究、产品和安全功能的领导者,米拉有资格担任临时首席执行官。我们对她在过渡时期领导OpenAI充满最高信心。” OpenAI的董事会由OpenAI首席科学家伊利亚·苏茨克弗、独立董事Quora首席执行官亚当·丹吉洛、技术企业家塔莎·麦考利和乔治敦安全与新兴技术中心的海伦·托纳组成。 作为这一过渡的一部分,格雷格·布罗克曼将辞去董事会主席职务,并将继续在公司担任其角色,向首席执行官汇报。 OpenAI于2015年成立为非营利组织,其核心使命是确保人工普遍智能造福全人类。2019年,OpenAI进行了重组,以确保公司能够在追求这一使命的同时筹集资本,同时保留非营利组织的使命、治理和监督。董事会的大多数成员是独立的,独立董事不持有OpenAI的股权。虽然公司经历了戏剧性的增长,但推进OpenAI使命并保持其宪章原则是董事会的基本治理责任。 —- 源: https://openai.com/blog/openai-announces-leadership-transition
访问量最高的 50 个 AI 工具及其超过 24 亿次访问行为 最新研究数据显示,ChatGPT 在 AI 工具市场中占据主导地位,市场份额高达 60%。据 WriterBuddy.ai 发布的报告,人工智能在线上已成为「无处不在的力量」,50 个基于 AI 的网站在 11 个月内吸引了超过 24 亿次访问。2023 年 8 月,这些网站的访问量达到了 2.8 亿次,比报告开始的第一个月增长了 2.6 亿次。这一发现凸显了 ChatGPT 在 AI 工具领域的霸主地位,仅在前 50 大 AI 平台中就贡献了 14.68 亿次访问量。与此同时,像 Character.ai、Google Bard 和 Perplexity AI 等新兴竞争者共同占据了聊天机器人市场月访问量的 18.69%。AI 聊天机器人工具总体上最受欢迎,访问量超过 19 亿次。 CNBC 报道称,ChatGPT 的开发商 OpenAI 正在探索制造自己的人工智能芯片。OpenAI 由 Sam Altman、Elon Musk、Peter Thiel 等知名投资者于 2015 年成立。目前,像 Nvidia 这样的芯片制造商正因为满足 AI 的数据处理需求而经历爆炸式增长。例如,Nvidia 股价在过去六个月内上涨了近 68%,公开交易的芯片制造商估值高达 1210 亿美元,超过了 Meta、Tesla 或 Berkshire Hathaway。 据 Barron’s 报道,OpenAI 的估值接近 800 亿至 900 亿美元。Sam Altman 表示,公司今年的收入预计将达到 10 亿美元。公司主要通过向企业和个人提供高级功能的访问权限来获取收入。希望使用 OpenAI 技术作为其他技术的基础或 OEM 模式的公司也是公司的主要收入来源。 根据 WriterBuddy.ai 的报告,ChatGPT 在使用领域占据主导地位。对于 ChatGPT 用户来说,平均使用时长为 30 分钟,该工具在美国、印度和巴西最受欢迎,这与 Statista 的总体搜索流量相吻合。近 60% 的用户通过移动设备访问 ChatGPT,而用户群体则以男性为主,占比近 75%。 在一个相关故事中,对「AI 女友」的搜索量增加了超过 2400%。在争夺 AI 主导地位的竞赛中,ChatGPT 继续领先。但在调查中被提及的其他 49 家 AI 公司都在关注:ChatGPT 的领先地位还能持续多久?ChatGPT 可能不是唯一的选择,但它是大多数人正在使用的那个。 阅读完整 WriterBuddy.ai 报告:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fwriterbuddy.ai%2Fblog%2Fai-industry-analysis&urlrefer=8373786709f2b3cb2c466719fa656aa4。 --- 本贴转自站长之家
微软重塑其人工智能愿景:Bing Chat 更名为 Copilot 继今年早些时候将 ChatGPT 类界面直接整合入其搜索引擎后,微软现在已将 Bing Chat 品牌更名为 Copilot,此举是对其 AI 聊天界面的重大更新,这一界面曾在 Bing、Microsoft Edge 和 Windows 11 中使用。 微软 365 的总经理 Colette Stallbaumer 解释说:「Bing Chat 和 Bing Chat Enterprise 现在将统一更名为 Copilot。」这一官方名称的更改发生在微软选择将 Windows 11 内的聊天机器人品牌命名为 Copilot 几个月后。当时尚不清楚 Bing Chat 品牌是否会完全消失,但现在已成定局。微软目前将 Copilot 定位为其 AI 聊天机器人的免费版本,而 Copilot for Microsoft 365(原名 Microsoft 365 Copilot)作为付费选项。免费版的 Copilot 仍将在 Bing 和 Windows 中可用,但也将在 copilot.microsoft.com 拥有自己的专用域名——类似于 ChatGPT。 商业用户将使用 Entra ID 登录 Copilot,而消费者则需要 Microsoft 账户才能访问免费的 Copilot 服务。目前,微软 Copilot 仅在 Microsoft Edge 或 Chrome 浏览器以及 Windows 或 macOS 系统中正式支持。 在今年早些时候宣布 Bing Chat 时,微软将这款聊天机器人描述为「为 Web 提供 AI 支持的副驾驶」,此后我们看到公司在 GitHub 去年首次使用 Copilot 名称后,将 Copilot 品牌用于许多 AI 项目中。 这一新的品牌重塑意味着 Copilot 正成为一种更独立的体验,用户无需再通过 Bing 来访问。现在,Bing 只是为 Copilot 提供支持的一部分。然而,这种远离 Bing 的举措颇为有趣,考虑到微软曾大力推广其搜索引擎内的 AI 努力,并将其定位为从 Google 手中夺取市场份额的方式。 微软声称,尽管如此,Bing 仍然是 Copilot 的重要组成部分。「Bing 仍然是一个突出的品牌和技术,为许多 Copilot 体验提供支持,同时继续在搜索行业中保持领先地位。」微软通信总监 Caitlin Roulston 在接受 The Verge 采访时表示。 Bing 将不再是微软通过 Copilot 实现人工智能雄心的主要切入点,而对于这家软件制造商来说,人工智能搜索的推动是否成功也不得而知。微软首席执行官 Satya Nadella 今年早些时候称谷歌为「800 磅重的大猩猩」,他想让谷歌起舞,但谷歌并没有像微软那样急于将人工智能整合到其搜索结果中。根据 StatCounter 的数据,必应聊天推出近 10 个月后,谷歌的市场份额仍超过 91%。
文心一言4.0:OpenAI暂停PLUS服务,你们终于想到我了? 百度推出关文心一言, 文心一言会员,联合会员,收费标准如下。(灵感值是什么?有懂的帮解释一下吗?脑海里最先想起来的是之前某吧友分享的第三方服务就叫什么灵感。) 吧友们怎么看。以下是有关协议中的一些条款: 4.1 您在使用本服务的过程中,不得进行以下违约行为: 4.1.1 违反本协议约定的; 4.1.2 违反法律、法规、规章、条例以及任何具有法律效力之规范规定的; 4.1.3 破坏、影响百度对任何第三方提供本服务; 4.1.4 进行危害计算机网络安全的行为; 4.1.5 对百度及关联第三方(包括授权方和合作方)提供的本协议服务、活动造成不良影响,侵犯及/或关联第三方百度及/或其他用户的正当利益; 4.1.6 被有权机构认定侵犯任何第三方的合法权益的; 4.1.7 利用本服务获取非法利益的,包括但不限于通过转售、转让、转授权等行为不正当牟利; 4.1.8 其他侵犯百度合法利益的行为。 4.2 【违约行为处理】 您确认并同意,如果百度发现或收到他人举报您有违反本协议任何行为的,百度有权依法进行独立判断并采取以下一项或多项措施处理: (1) 根据相应规则立即删除、屏蔽或断开相关的信息; (2) 采取包括但不限于中止或终止部分或全部本服务的措施; (3) 采取扣除违约行为发生时间内的会员权益时长的措施; (4) 百度无需向您退还任何费用,未使用的服务费用作为违约金归百度所有,您的相关会员权益的损失由您自行承担,百度在法律有明确规定的情况下承担相应的责任; (5) 如您的行为使百度遭受损失(包括自身的直接经济损失、商誉损失及对外支付的赔偿金、和解款、律师费、诉讼费等间接经济损失),您应赔偿百度的上述全部损失; (6) 如您的行为使百度遭受第三人主张权利,百度可在对第三人承担金钱给付等义务后就全部损失向您追偿。 六、自动续费服务的退订 6.1 您可自主选择退订本服务。通过如下解约流程,即可关闭自动续费会员服务: 【支付宝自动续费的关闭:支付宝-我的-设置-支付设置-免密支付/自动扣款-选择相关服务-关闭服务】 6.2 自动续费套餐取消成功后,不影响您当期已生效的会员权益,会员权益到期后将不再续费。 6.3 您在选择终止本服务前已经委托百度公司自动续费扣款的指令仍然有效,百度公司对于基于该指令扣除的费用不予退还。 6.4 如您在开通本服务后希望更换自动续费套餐,请先取消本服务,并在选择您希望的自动续费套餐后重新购买本服务。 我看到更多的字眼时,“ 无需向您退还任何费用”, “未使用的服务费用作为违约金 归百度所有”,“损失由 您自行承担”,“费用 不予退还”。。。,这。。。不禁让我陷入思考,这种条款是否能保护用户的权益。 当然我可能断章取义了, 具体内容还需要仔细阅读,相信大家在选择前会仔细阅读协议。
人工智能「不会取代员工」,但为企业降低工资提供便捷借口 Signal 的总裁 Meredith Whitaker 认为,人工智能(AI)本身并不会直接削减工作岗位,但它确实成为了一些企业和机构以降低工作条件为目的的「便捷借口」。在 2023 年里斯本的 Web Summit 上,Whitaker 指出:「我们应警惕那些宣称 AI 能够神奇地取代人类劳动力的说法,因为这种说法并没有真正的事实依据。」作为 AI Now 研究所的联合创始人,她同时关注着人工智能的社会影响。她举了好莱坞编剧罢工和对引入生成式人工智能到创作过程中争议的例子,说明「AI 并不经常替代员工」,因为「这些系统的开发、维护和调整需要大量人工,才能确保其输出在复杂世界中发挥作用。」 然而,她也提醒大家,「AI 为一些老板、机构和董事会提供了便利的借口,使他们能够削弱那些管理这些 AI 系统的工人的劳动条件。」她以 Uber 为例,批评这家公司在谈论「改变交通格局」的同时,实际上却在全球范围内削弱劳动法规和就业地位。 「我们不能简单地将 AI 视为造成这些问题的主体,」Whitaker 强调,她认为真正应受指责的是「好莱坞的制片人」和像 Microsoft、Google、Meta 这样的大型科技公司。她指出,这些公司的高管们推出人工智能工具和 API,供企业使用以增长和提高利润、生产力,而这通常意味着「削减福利、降低工资和减少员工,或者以合同工的形式重新雇佣他们,让他们编辑 AI 生成的内容,而不是自己原创。」 关于 Signal 和 AI 的关系,Whitaker 明确表示,Signal 没有计划集成 AI 技术。她解释说,AI 需要利用用户数据,而 Signal 力求「尽可能少地收集用户数据」。 她说:「我们不知道你是谁,你在和谁交谈,我们没有你的联系人名单,我们不了解你的对话内容,也不知道你发送的是什么媒体文件。」 最后,Whitaker 表示,她同意大众对 AI 不可信赖的观点,因为 AI 是少数大公司开发的,被雇主、政府等用于各种目的。「我们不是 AI 的使用者,而是被 AI 所用;我们必须清楚这一点,」她补充道。 --- 本贴转自站长之家(ChinaZ.com) ,dalong 的报道
安全提醒:chatgpt吧交流的注意事项 安全提醒:网络交流的注意事项 保护个人信息: 在线交流时,请高度警惕,特别是可能遇到的网络陷阱。保护好您的个人信息和财产安全,以防不法分子利用这些信息进行欺诈或诱导。 共享账号风险: 共享账号可能导致您的信息被他人窃取。请避免在提问或发布信息时包含任何个人隐私。共享账号还可能增加账号被封的风险,因为实际使用者可能远超预期。 分享账号的警示: 对于主动分享账号的用户,请保持警觉,以免影响您的利益和使用体验。在不了解对方的情况下,请保持安全意识,以防无法挽回的损失。 代充服务的风险: 1.请确保订阅渠道为官方认证,以避免账号被封禁。 2.注意代充者是否在完成订阅后即退订。 3.警惕代充者可能在收费后不提供服务。 4.注意代充者不应窃取账号信息,包括聊天内容。 5.避免代充者非法篡改账号密码或盗用账号。 6.警惕代充者提供虚假信息或过高的订阅价格。 7.注意识别代充者提供的非官方账号或服务。 8.警惕代充者对PLUS服务期限的误导性宣传。 建议操作: ->尽可能自行完成PLUS的订阅,这样既安全又经济。 ->访问官方网站创建和激活您的账号。 ->了解如何通过官方渠道安全地开通PLUS服务。 --- 如果您在使用过程中遇到任何问题,欢迎随时提问或留言讨论。
交流中可能会出现的网络陷阱,需要格外留意,以免权益受损。 友情提醒: 请在交流中保持警惕,尤其涉及到可能出现的网络陷阱,请保护好个人信息和财产安全,避免被不法分子利用,窃取您的个人信息,或者骗取钱财。 另外共享账号有风险,如必要,请不要发布或提问中不要包含任何个人隐私信息,防止信息被其他共享者窃取。 共享账号存在多次转让分享的情况,可能实际使用者比预计要多很多,所以极大提升账号被封的概率风险,请不要轻易分享您的账号。 对于主动分享账号的用户,我们请对其保持一定的警惕,避免利益受到损害,以及影响您的使用体验。除非您已经了解彼此,否则请保持一定的安全意识,避免出现问题后无法找回损失。 对于代充,请采取一定安全措施,确保自己的利益不受影响,在交流中请排出以下可能情况 1. 订阅渠道为官方订阅,非常渠道将导致账号封禁 2. 代充者在完成订阅后,不会退订 3. 代充者在收到费用直接跑路。 4. 代充者窃取账号信息,包括聊天信息。 5. 代充者篡改账号密码,盗取账号,或将您的账号分享给其他人,在未通知您,未经您同意的情况下,用做交易。 6. 代充者诱导,提供不实信息,大幅抬高订阅价格,导致吧友权益受损。 7.代充者诱导吧友,提供不实信息,非官方账号冒充官方服务收费。 8. 代充者过度宣传暂停PLUS的期限,以哄抬PLUS 共享费用。 以上行为均可能造成,吧友的权益受损,所以建议请吧友们尽可能自己完成PLUS的订阅,安全又经济,同时自己不断尝试的过程中也会学到很多,如有必要,请在充分了解彼此,确保以上情况不会发生后再做选择。 建议先自己去官方网站去注册并激活。完成账号的创建, 以下是你可以参考的步骤以及相关依赖环境。 1. PC端或者移动端访问官方chat.openai.com链接 ,注册OpenAI账号 2. 访问sms-activate.org注册账号并充值至少2美元购买用于激活账号的手机,接收短信码用于激活您的OpenAI账号 3. 您需要开启节点,用于访问OpenAI服务 如何开通PLUS:(目前暂停PLUS,官方正在对有效资源进行优化,相信会很快恢复订阅功能) 1. 您可以购买礼品卡,通过苹果手机订阅PLUS服务 2. 您可以绑定信用卡的方式开通PLUS如果你对于使用chatgpt过程中遇到什么其他问题,可以随时提问,或者留言讨论。 如果您遇到任何异常可疑的请求或行为,请及时在吧里反馈,以获取吧友们的建议。
OpenAI 获得更多的英伟达 H100 芯片,预测明年芯片获取将更加顺 在日前接受《金融时报》采访时,OpenAI 首席执行官 Sam Altman 表示,公司已经收到了备受期待的英伟达 H100 芯片订单,并预计不久后会收到更多。他补充道,「明年在获取更多芯片方面看起来已经会更好」。OpenAI,ChatGPT,人工智能,AI© 由 站长之家 提供 OpenAI 等人工智能公司广泛使用英伟达的最新型号芯片来训练其模型。今年,人们对 OpenAI 的 ChatGPT 和谷歌的 Bard 等 AI 聊天机器人的关注程度,似乎与对英伟达价值 40,000 美元的 H100 芯片的关注程度相当。 OpenAI 从英伟达获取更多芯片的举动表明,更为复杂的 AI 模型将在不久的将来准备就绪,这些模型将超越目前聊天机器人版本的能力。 对英伟达 H100 芯片的强烈需求 生成式 AI 系统需要在海量数据上进行训练,以生成复杂的回答,这需要大量的计算能力。英伟达的 H100 芯片专为生成式 AI 设计,运行速度比之前的芯片型号快得多。哈佛商学院教授 Willy Shih 表示,芯片越强大,处理查询的速度就越快。 在背后,初创公司、芯片竞争对手如 AMD,以及谷歌和亚马逊等大型科技公司一直在致力于开发更高效的 AI 应用专用芯片,以满足市场需求——但到目前为止,还没有哪家公司能够超越英伟达。 这种对一家公司特定芯片的强烈需求已经在英伟达身上引发了一场抢购狂潮,不仅是科技公司在争相抢购这些炙手可热的芯片——政府和风险资本公司也在积极参与。但如果 OpenAI 能够获得其订单,这或许表明形势终于发生了转变,芯片向 AI 公司的流动正在改善。 尽管英伟达目前仍占据主导地位,但就在上周,SymphonyAI 首席执行官 Prateek Kathpal 表示,尽管该公司的 AI 应用运行在英伟达的芯片上,但公司也在与 AMD 和 Arm 讨论其技术。 对 OpenAI 来说,更多芯片意味着什么? OpenAI 日益增长的芯片库存意味着几件事情。H100 芯片将助力公司下一代 AI 模型 GPT-5 的开发,Altman 表示目前 GPT-5 正在开发中。这个新模型将需要更多数据进行训练,这些数据将来自公开可用信息和公司的专有数据。他在接受《金融时报》采访时提到,GPT-5 可能会比其前身更为复杂,尽管他补充说,目前还不清楚它能做 GPT-4 无法做到的事情。 Altman 没有透露 GPT-5 的发布时间表。但 GPT-4 在仅仅八个月前发布,紧随其前身 GPT-3 于 2020 年发布之后,这一快速的发布周期凸显了其快速的开发周期。 更多芯片的采购还表明,该公司正在更接近于创造人工通用智能(AGI),即一种基本上能够完成人类能做的任何任务的 AI 系统。 --- 本帖转自站长之家(ChinaZ.com)
谷歌推新型生成式AI模型IGN 单步即可生成逼真图像 要点: 1. UC伯克利和谷歌提出的幂等生成网络(IGN)是一种新型生成式AI模型,能够通过单步生成逼真图像,不需要多步迭代。 2. IGN与传统的生成对抗网络(GAN)和扩散模型不同,它是一个自对抗模型,同时完成生成和判别,并尝试在单个步骤中将输入映射到目标数据分布。 3. 通过实验证明,虽然IGN目前生成结果无法与最先进的模型竞争,但在推理方面更加有效,可以输出一致性更高的结果,具有潜在的医学图像修复应用。 - 生成式AI模型的新范式要来了。UC伯克利谷歌提出幂等生成网络(IGN),只需单步即可生图。当前,生成式AI模型,比如GAN、扩散模型或一致性模型,通过将输入映射到对应目标数据分布的输出,来生成图像。通常情况下,这种模型需要学习很多真实的图片,然后才能尽量保证生成图片的真实特征。 最近,来自UC伯克利和谷歌的研究人员提出了一种全新生成模型——幂等生成网络(IGN)。IGNs可以从各种各样的输入,比如随机噪声、简单的图形等,通过单步生成逼真的图像,并且不需要多步迭代。这一模型旨在成为一个「全局映射器」(global projector),可以把任何输入数据映射到目标数据分布。论文地址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Farxiv.org%2Fabs%2F2311.01462&urlrefer=d300ab9c5b94b7f9f893df6fe6d28e6a 有趣的是,《宋飞正传》中一个高效的场景竟成为研究人员的灵感来源。这个场景很好地总结了「幂等运算符」(idempotent operator)这一概念,是指在运算过程中,对同一个输入重复进行运算,得到的结果总是一样的。 IGN与GAN、扩散模型有两点重要的不同之处:与GAN不同的是,IGN无需单独的生成器和判别器,它是一个「自对抗」的模型,同时完成生成和判别。与执行增量步骤的扩散模型不同,IGN尝试在单个步中将输入映射到数据分布。位于同一空间,即它们的实例具有相同的维度。 研究人员承认,现阶段,IGN的生成结果无法与最先进的模型相竞争。在实验中,使用的较小的模型和较低分辨率的数据集,并在探索中主要关注简化方法。当然了,基础生成建模技术,如GAN、扩散模型,也是花了相当长的时间才达到成熟、规模化的性能。研究人员在MNIST(灰度手写数字数据集)和 CelebA(人脸图像数据集)上评估IGN,分别使用28×28和64×64的图像分辨率。 研究人员采用了简单的自动编码器架构,其中编码器是来自DCGAN的简单五层鉴别器主干,解码器是生成器。训练和网络超参数如表1所示。图4显示了应用模型一次和连续两次后两个数据集的定性结果。如图所示,应用IGN 一次 (f (z)) 会产生相干生成结果。然而,可能会出现伪影,例如MNIST数字中的孔洞,或者面部图像中头顶和头发的扭曲像素。 再次应用 f (f (f (z))) 可以纠正这些问题,填充孔洞,或减少面部噪声斑块周围的总变化。表明,当图像接近学习流形时,再次应用f会导致最小的变化,因为图像被认为是分布的。作者通过执行操作证明IGN具有一致的潜在空间,与GAN所示的类似,图6显示了潜在空间算法。研究人员还验证通过将来自各种分布的图像输入到模型中以生成其等效的「自然图像」,来验证IGN「全局映射」的潜力。研究人员通过对噪声图像x+n 进行去噪、对灰度图像原始图像x,这些逆任务是不适定的。IGN能够创建符合原始图像结构的自然映射。如图所示,连续应用f可以提高图像质量(例如,它消除了投影草图中的黑暗和烟雾伪影)。通过以上结果可以看出,IGN在推理方面更加有效,在训练后只需单步即可生成结果。它们还可以输出更一致的结果,这可能推广到更多的应用中,比如医学图像修复。 --- 本贴转自站长之家(ChinaZ.com)
苹果筹备 iPhone 16 Pro 的 AI 功能应对智能手机 AI 竞赛的挑战 随着 Google、高通和三星在其旗舰智能手机中大力推广 AI 技术,苹果公司面临在即将推出的 iPhone 16 Pro 中整合 AI 技术的紧迫挑战。Siri,苹果,人工智能,语音助手,AI© 由 站长之家 提供 据 Bloomberg 的 Mark Gurman 报道,由于 iPhone 16 和 16 Pro 不会有任何重大的硬件特性,苹果公司正把重点放在 iOS 18 上,该操作系统将搭载新的 AI 功能,这对苹果公司来说比往常更为关键。 苹果公司的 iOS 和 AI 团队不仅需要确保这些新功能正确无误,而且还要力求令人瞩目。最近 iOS 开发因大量的错误修复和稳定性问题而延迟,这意味着苹果在 AI 方面的策略不仅是迎头赶上安卓竞争对手,更是试图抢占由 Google 及其合作伙伴主导对话势头。 据知名苹果评论员 @Tech_Reve 透露,苹果正在开发自己的大型语言模型(LLM),而非采用现有模型如 ChatGPT。这将用于 Siri 的新版本,使虚拟助手能够使用更自然的语言和语音模式。 这些更新预计将在 2024 年 6 月的苹果全球开发者大会上展示,苹果通常在此会议上发布 iOS 的新版本。AI 驱动的 Siri 无疑将成为 iOS 18 的重要组成部分。 此外,Gurman 还强调了苹果在 AI 领域的其他潜在应用,包括在 Pages 中提供写作辅助,在 Keynotes 中构建演示文稿,在 Apple Music 中自动生成播放列表等。 值得关注的是,苹果将如何在设备端实现这些 AI 功能,以及多少需要依赖云端处理。预计下一代 iPhone 的 Apple Silicon 芯片组——可能被称为 A18——将内置 AI 硬件功能,类似于 Google 的 Tensor 和高通的 Snapdragon 芯片组。 对于那些愿意购买全新的 iPhone 16(尤其是更昂贵的 iPhone 16 Pro 和 16 Pro Max)的用户来说,这是个好消息。但对于大多数已经支持 iOS 18 的现有 iPhone 用户来说,他们是否会被遗留在后面? 苹果可能会采取分层策略,将高强度的 AI 工作交给云端处理,而在硬件性能允许的情况下,将部分功能在本地运行。对于旧款或性能较慢的 iPhone,可能需要将更多的 AI 处理转移到云端,这虽然可以提供更准确、更快速的结果,但可能与苹果公司希望尽可能在设备上保留和处理用户数据的公开声明相冲突。 在此情况下,安卓生态系统的竞争对手将能够定义智能手机上提供 AI 的含义。尽管苹果在如拼写检查等功能上静悄悄地使用 AI,但它未能抓住公众的想象力。今年 9 月发布 iPhone 15 系列时,苹果错失了最佳时机。 虽然苹果公司传统上不愿确认其未来计划,但随着安卓生态系统中的所有主要参与者在今天提供 AI 驱动的智能手机方面取得了显著的领先优势,iPhone 需要成为这一讨论的一部分。虽然我们可能不会从苹果公司那里读到关于其 AI iPhone 计划的新闻稿,但毫无疑问,我们明年将从各种渠道听到更多关于这些计划的消息。 也许 iPhone 16 Pro 将最终使苹果公司加入 AI 革命。 --- 本贴转自站长之家(ChinaZ.com)
欲把AI计算成本打下来,谷歌高效益TPU正式开放 对于每个想要自己开发和部署AI模型的应用开发者来说,硬件和服务器支出都是一笔不小的费用。就以英伟达的GPU为例,即便是消费级的GPU,最近也迎来了一波涨价潮,更不用爆火的A100/H100等型号了。 即便是租赁服务器,基于这些热门硬件的服务器也远算不上便宜,因此不少云服务厂商为了进一步拉拢更多AI应用开发者,纷纷推出了性价比更高的选项。这些选项有的是基于CPU的AI计算服务器,有的是基于第三方AI加速器打造的服务器,还有的则是由云服务厂商基于自研加速器打造且独家提供的服务器。 谷歌高性价比TPU面世 谷歌在今年8月底发布了第五代的自研TPU,TPU v5e。谷歌称该加速器实现了性能与成本效益的平衡。相比上一代TPU v4,TPU V5e提供了同成本下两倍的训练性能,以及针对LLM和生成式AI模型2.5倍的推理性能。单个TPU v5e Pod由256个芯片互联,总带宽超过400Tb/s,INT8总算力达100petaOps。而且谷歌为TPU v5e采用了更灵活的配置选项,其支持8个不同的虚拟机配置,单个切片支持单芯片到250多个芯片,如此一来客户就可以根据自己的模型大小来选择合适的配置。 而且过去借助谷歌TPU进行的训练负载只局限于单个切片中,谷歌为此开发了Multislice技术,可通过芯片间互联以及数据中心网络中的多个TPU Pod相连,从而将训练工作扩展到数万个芯片上。 为了进一步扩大对开发生态的支持,TPU v5e还内置了对JAX、Pytorch和Tensorflow等领先AI框架,以及 Hugging Face 的 Transformers 和 Accelerate、PyTorch Lightning 和 Ray等一系列常用开源工具的支持。 开放使用与自用 近日,谷歌终于宣布TPU v5e进入公用阶段,且在最新的MLPerf训练3.1测试中,TPUv5e获得了更好的表现。在该测试中,谷歌改进了创新的混合精度训练算法,除了原生支持的BF16外,还用到了INT8精度格式。这意味着客户在提高了模型准确性的同时,将花费更少的成本。从谷歌云对于TPU v5e的定价表来看,v5e在成本效益上确实有着极大的优势。不过需要注意的是,v5e与v2、v3 Pod类似,每个芯片中只有一个TensorCore,而v4 Pod的每个芯片中有两个TensorCore。这也是为何v5e的单芯片峰值算力为197TFLOPS,而v4的单芯片峰值算力为275TFLOPS,可即便如此,在按芯片小时的定价下,其所需成本依然低于v4。 在如此高的性价比下,谷歌不仅将TPU提供给外部开发者使用,其内部一些开发项目也开始用上TPU v5e。比如其PaLM模型的创建,就用到了上文提到的Multislice技术,谷歌的Bard团队同样在用TPU v5e训练这一生成式AI聊天机器人。 其实在TPUv5e开放使用之前,谷歌也正式开放了A3 VM这类GPU加速虚拟机的使用。这也是多数云服务厂商采用的多方案供应策略,其自研加速器只需要为客户提供一个高性价比的方案,而追求更高性能的客户,依然可以选择基于H100 GPU打造的服务器。 --- 本贴转自电子发烧友网报道 (文/周凯扬)
【教程专题】有关教程(官方)请发布在这里,其余位置将予删除 最近发现大量教程相关内容,为了保证吧友们的权益,避免个别用户打着发布教程的旗号,传播广告,引导吧友消费的行为。 👮🏻♂️为此我们开启此贴,为了集中公开透明化管理教程。 ⚠️chatgpt吧规定教程应符合以下条件: 1. 所有教程必须要公开发布可以是链接,或者直接文本格式回复,禁止私信,禁止发布有关私信教程的内容。 2. 教程必须要只能包含官方服务相关的内容和描述,要步骤清晰易懂,可以是图文,也可以是文本。我们将为优质教程加精处理,以便让更多的吧友获得帮助。 3. 禁止包含包括第三方个人或组织的服务,中转站,镜像站等其他服务的。 4. 教程中禁止包含任何购买链接。 5. 教程中禁止包含任何推广性质广告。 6. 教程中禁止包含个人信息,包括微信,QQ号,二维码,公众号等等。 7. 教程中禁止包含站外链接。👮🏻♂️以上规定目的是维护吧友的权益,避免教程中包含不实信息误导吧友影响使用体验。避免私信过程,某些用户利用私信的私密性,对吧友们实施诱导消费,或者推广广告,对吧友的权益可能造成影响。 👮🏻♂️对于违反以上任意条件的教程或者帖子我们将做删除处理,对于严重扰乱贴吧秩序的行为,比如多次违规,将予以封禁,或加入黑名单处理。此规定从今日起开始执行。 @林向屿12306 @带带塞拉斯ლ
GPT-4比你更会问问题:大模型自主复述,打破与人类对话的壁垒 在最新的人工智能领域动态中,人工生成的提示(prompt)质量对大语言模型(LLM)的响应精度有着决定性影响。OpenAI 提出的建议指出,精确、详细且具体的问题对于这些大语言模型的表现至关重要。然而,普通用户是否能够确保他们的问题对于 LLM 来说足够清晰明了? 值得注意的是,人类在某些情境下的自然理解能力与机器的解读存在明显差异。例如,“偶数月” 这一概念,在人类看来很明显指的是二月,四月等月份,而 GPT-4 却可能将其误解为天数为偶数的月份。这不仅揭示了人工智能在理解日常语境上的局限性,也促使我们反思如何更有效地与这些大语言模型进行交流。随着人工智能技术的不断进步,如何桥接人类与机器在语言理解上的鸿沟,是一个未来研究的重要课题。 对此,加利福尼亚大学洛杉矶分校(UCLA)顾全全教授领导的通用人工智能实验室发布了一份研究报告,针对大语言模型(如 GPT-4)在问题理解上的歧义问题提出了一种创新的解决方案。这项研究由博士生邓依荷,张蔚桐,陈子翔完成。论文地址:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Farxiv.org%2Fpdf%2F2311.04205.pdf&urlrefer=126fe265f2d53e2328435b773c861de5 项目地址: http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fuclaml.github.io%2FRephrase-and-Respond&urlrefer=6a6cc7e67d5a35ad2a947577f9eb72ac 该方案的核心在于让大语言模型对提出的问题进行复述与扩写,以提高其回答的准确性。研究发现,经 GPT-4 重新表述的问题变得更加详细,问题格式也更为清晰了。这种复述与扩写的方法显著提高了模型的回答准确率。实验表明,一个良好的复述之后的问题,使回答的准确率从原本的 50% 提高到了接近 100%。这一性能提升不仅展示了大语言模型自我改进的潜力,也为人工智能如何更有效地处理和理解人类语言提供了新的视角。 方法 基于以上的发现,研究者提出了一个简单但效果显著的提示词 (prompt):“Rephrase and expand the question, and respond”(简称为 RaR)。这一提示词直接提高了 LLM 回答问题的质量,展示了在问题处理上的一个重要提升。研究团队还提出了 RaR 的一种变体,称为 “Two-step RaR”,以充分利用像 GPT-4 这样的大模型复述问题的能力。这种方法遵循两个步骤:首先,针对给定的问题,使用一个专门的 Rephrasing LLM 生成一个复述问题;其次,将原始问题和复述后的问题结合起来,用于提示一个 Responding LLM 进行回答。结果研究人员在不同任务上的实验显示,无论是 (One-step) RaR 还是 Two-step RaR,都在提高 GPT4 的回答准确率方面显示出了一致的有效性。值得注意的是,在原本对于 GPT-4 极具挑战性的任务上,RaR 展现出了显著的改进效果,甚至在某些情况下准确率接近 100%。基于此,研究团队总结了以下两点关键的结论: 1. 复述并扩写(RaR)提供了一种即插即用的黑箱式提示方法,能够有效地提高 LLM 在各种任务上的性能。 2. 在评估 LLM 在问答(QA)任务上的表现时,检查问题的质量至关重要。进一步的,研究人员采用了 Two-step RaR 来探究 GPT-4、GPT-3.5 和 Vicuna-13b-v.15 等不同模型的表现。实验结果显示,对于那些具备更复杂架构和更强大处理能力的模型,如 GPT-4,RaR 方法能够显著提升其处理问题的准确性和效率。而对于较为简单的模型,例如 Vicuna,尽管改进幅度较小,但依然证明了 RaR 策略的有效性。基于此,研究人员进一步检查了不同模型复述后的问题质量。对于较小模型的复述问题,有时可能对问题的意图产生扰动。而如 GPT-4 这样的高级模型提供的复述问题与人类的意图往往更加吻合,并能增强其他模型的回答效果。这一发现揭示了一个重要的现象:不同等级的语言模型复述的问题在质量和效果上存在差异。特别是像 GPT-4 这样的高级模型,它复述的问题不仅能够为自身提供更清晰的问题理解,还能够作为一种有效的输入,提高其他较小模型的性能。 与思维链(CoT)的区别 为了理解 RaR 与思维链(CoT)之间的区别,研究人员提出了它们的数学表述,并阐明了 RaR 在数学上与 CoT 的不同之处,以及它们如何可以轻松结合。这项研究同时表明,在深入探讨如何增强模型推理能力之前,应该提高问题的质量以确保模型的推理能力可以被正确评估。比如 “硬币翻转” 问题,人们发现与人类的意图不同的是,GPT-4 将 “翻转(flip)” 这一词语理解为随机抛掷的动作。当引导模型使用 “Let’s think step by step” 来进行推理时,这种误解仍然存在于推理过程中。只有在澄清了问题之后,大语言模型才会回应预期的问题。进一步的,研究人员注意到,除了问题文本之外,用于 few-shot CoT 的问答示例也是由人类编写的。这就引发了一个问题:当这些人工构造的示例存在缺陷时,大语言模型(LLM)会作出怎样的反应?该研究提供了一个很有意思的例子,并发现不良的 few-shot CoT 示例可能会对 LLM 产生负面影响。以 “末尾字母连接” 任务为例,先前使用的问题示例在提高模型性能方面显示出了积极效果。然而,当提示逻辑发生变化,比如从找到末尾字母变成找到首位字母,GPT-4 却给出了错误的答案。这一现象突显了模型对人工示例的敏感性。研究人员发现,通过使用 RaR,GPT-4 能够纠正给定示例中的逻辑缺陷,从而提高 few-shot CoT 的质量和稳健性。 结论 人类和大语言模型(LLM)之间交流可能存在误解:看似对人类清晰的问题可能仍会被大语言模型理解成其他的问题。UCLA 的研究团队基于这个问题提出 RaR 这一新颖方法,促使 LLM 先复述并澄清问题,然后再回答。 RaR 在一系列基准数据集上进行的实验评估证实了其方法的有效性。进一步分析显示,通过复述得到的问题质量提升是可以跨模型转移的。 展望未来,RaR 这类的方法预计将持续完善,以及它们与 CoT 等其他方法的整合,将为人类与大语言模型之间更准确、更有效的互动铺平道路,最终拓展 AI 解释和推理能力的边界。 --- 本贴转自ZAKER科技 机器之心专栏 机器之心编辑部
ChatGPT 正在为一种新型 Snapchat 滤镜提供支持 划重点: - Snapchat 宣布将在 AR 发布会上推出使用 ChatGPT 提供支持的的 AR 滤镜特效 - Lens Studio for developers 新版本将包括使用 ChatGPT 创建滤镜的功能 - Snap 的 AI 滤镜已经由 ChatGPT 提供支持,现在还可以用于创建测验或随机生成器 Snapchat 在其年度开发者活动 Lens Fest 上宣布了一项新的更新,即将推出使用 ChatGPT 的增强现实滤镜。 开发者可以使用 Lens Studio 的新测试版创建具有 ChatGPT 的滤镜。Snap 在一个示例镜头中展示了一个以太阳系为主题的滤镜,用户问道:“海王星离我们有多远?” 几秒钟之内,镜头就会回答这个问题。据 TechCrunch 报道,这个新功能还可以用于创建测验或随机生成器。Snap 的 AI滤镜由 ChatGPT 提供支持。Snapchat 已经使用 ChatGPT 为其另一个功能 My AI 提供动力,这是一个聊天机器人,用户可以像与朋友聊天一样与其交流。最初是为付费 Snapchat Plus 订阅用户提供的独有功能,该公司在今年春季将 My AI 免费供所有人使用,并尝试在聊天机器人的回答中添加广告。然而,这个功能已经受到了英国数据权利保护机构的 “初步执行通知”。 各大平台都在推出由生成式人工智能支持的创作工具 ——YouTube、Meta 和 TikTok 都宣布了依赖生成式人工智能的照片编辑和滤镜等功能。Meta 在九月份宣布的 AI 聊天机器人包括像 MrBeast 和 Kendall Jenner 这样的名人作为 AI 角色的代表。TikTok 也推出了一种标记使用 AI 工具创建的内容的方式,这可能预示着随着时间的推移,由 AI 生成的内容将不断增加。 Snap 还表示,镜头开发者将能够使用新的3D 面具生成器创建生成式人工智能面部镜头。新发布的开发者工具还包括多人同时参与项目的功能。 --- 本贴转自站长之家(ChinaZ.com) ,FACENOW 的报道
麻省理工学院专家解读生成式人工智能和ChatGPT现象 生成式人工智能(如 OpenAI 的 ChatGPT)正在改变机器学习的面貌,从简单的预测模型转变为能够创建新的现实数据的复杂系统。麻省理工学院的专家重点介绍了生成式人工智能的历史背景、深度学习架构的进步和广泛应用。 像 ChatGPT 这样强大的生成式人工智能系统是如何工作的,它们与其他类型的人工智能有何不同? 快速浏览一下头条新闻,就会发现生成式人工智能如今似乎无处不在。事实上,有些头条新闻可能真的是由生成式人工智能撰写的,比如 OpenAI 的 ChatGPT,它是一个聊天机器人,展示了一种不可思议的能力,可以生成看似由人类撰写的文本。 但是,当人们说"生成式人工智能"时,到底是什么意思呢?在过去几年的生成式人工智能热潮之前,人们在谈论人工智能时,通常是在谈论机器学习模型,这些模型可以学会根据数据进行预测。例如,这种模型通过数百万个实例的训练,可以预测某张 X 光片是否显示出肿瘤迹象,或者某个借款人是否有可能拖欠贷款。 人们说"生成式人工智能"是什么意思?为什么这些系统似乎正在进入几乎所有可以想象到的应用领域?麻省理工学院的人工智能专家将为您解析这项日益流行、无处不在的技术的来龙去脉。资料来源:Jose-Luis Olivares,麻省理工学院 生成式人工智能(Generative AI)可以被认为是一种机器学习模型,它被训练来创建新数据,而不是对特定数据集进行预测。生成式人工智能系统可以学习生成更多与训练数据相似的对象。 "说到生成式人工智能和其他类型人工智能的实际基础机器,它们之间的区别可能有点模糊。"麻省理工学院电子工程与计算机科学副教授、计算机科学与人工智能实验室(CSAIL)成员菲利普-伊索拉(Phillip Isola)说:"很多时候,同样的算法可以用于这两种人工智能。"
【黑名单公告】关于严重违规行为处理的公告 为了规范化管理,我们将对 严重违规行为的用户进行处理,并将其加入黑名单。我们将公开记录并公布被拉黑的用户,以便所有用户都能了解到这些信息。 请自觉遵守吧规,共同维护一个良好的网络环境。 如果您对被拉黑的处理有任何异议,请提出申诉。 感谢吧友一直以来的支持。 让我们共同努力,打造和谐友善健康的百度贴吧AI社区。 以下行为将视为违规: 1. 辱骂和恶意攻击其他吧友。 2. 在帖子的第二楼发布广告或宣传内容,与主题无关。 3. 在帖子的第三楼以下恶意挖坟,即回复长时间没有活动的帖子。 4. 恶意刷帖,多次发布相同或无关的内容,以提高帖子的点击率。 5. 发布恶意广告,推广违规产品或服务。 6. 分享包含不实信息的帖子,散布虚假信息,过度宣传,诱导消费。 7. 发布与贴吧主题无关的内容,破坏了讨论的连贯性。 8. 分享违法信息,如侵犯版权、色情内容等。 9. 恶意灌水:发布无意义、毫无内容的回复,以占用帖子空间或干扰讨论。 10. 侵犯隐私:发布他人的个人信息,如电话号码、地址等,违反了隐私权。 11. 恶意举报:故意举报其他吧友或帖子,以恶意损害其声誉。 12. 冒充他人身份:伪装成其他吧友或虚构身份,进行虚假发言(互捧,刷帖,广告)或欺骗行为。 13. 挑起争端:故意制造争吵、冲突或纷争,破坏和谐氛围。 14. 涉及政治敏感话题:发布政治敏感内容,违反了贴吧关于政治讨论的规定。 15. 广告帖重复发布:多次发布相同或类似的广告帖,以增加曝光,帖子内包含购买链接,第三方引流链接。 16. 垃圾信息:发布垃圾信息、链接或不相关内容。 17. 妨碍吧务组工作:删除吧务的留言,拉黑吧务,辱骂吧务。 以下是截至目前,已被加入黑名单的账号。 备注:之前有过一次已经将所有7月前的黑名单清空(部分异常账号无法移除黑名单),目前的黑名单是从7月开始维护的。此贴禁止回复,否则将被删除或封禁。
Hugging Face组建H4团队,开源开发类似ChatGPT的AI模型 划重点: - Hugging Face的两人团队H4致力于开源构建类似ChatGPT的AI模型。 - H4团队已发布多个开源大型语言模型,包括聊天型Zephyr-7B-α和改进型Falcon-40B。 - H4的主要研究重点是对齐技术,以使语言模型根据人类反馈行为进行学习。 AI初创公司Hugging Face最近组建了一个名为H4的两人团队,旨在开源开发类似ChatGPT的人工智能模型。H4的目标是提供工具和“配方”,以便AI社区能够构建类似ChatGPT的AI聊天机器人。 H4团队的两名成员Lewis Tunstall和Ed Beeching近期透露了一些有关他们的工作的信息。H4团队的成立灵感来自于OpenAI于2022年底发布的ChatGPT。当ChatGPT发布时,他们开始思考如何使用开源库和模型来复制其功能,这促使了H4团队的成立。 H4团队的主要研究重点是对齐技术,这意味着他们致力于教导大型语言模型(LLMs)如何根据人类的反馈行为来表现。为了训练他们的模型,H4团队依赖于一个拥有超过1000个Nvidia A100GPU的专用集群。虽然H4的两名成员都远程驻扎在欧洲,但他们得到了来自Hugging Face内部团队的支持。 不仅如此,H4团队还发布了多个开源大型语言模型,其中包括Zephyr-7B-α,这是法国AI初创公司Mistral最近发布的Mistral7B模型的聊天型版本。此外,他们还对来自阿布扎比技术创新研究所的Falcon-40B模型进行了修改,使其在自然语言请求方面更具帮助性。 尽管Hugging Face已从一系列投资者中筹集了数亿美元,但H4团队的Lewis Tunstall表示,H4并没有直接从他们的工具中获得商业化利益。相反,他们的工具有助于Hugging Face的专家加速计划,该计划旨在为企业提供来自Hugging Face团队的指导,以构建定制的AI解决方案。 此外,H4团队的Ed Beeching表示,他们并不将H4视为与其他开源AI倡议竞争的实体。相反,他们的意图是通过发布与其聊天模型相关的训练代码和数据集来“赋能”开源AI社区。 最近,H4团队一直在研究不同的对齐技术,并构建工具来测试社区和行业提出的技术的实际效果。该团队本月发布了一本手册,其中包含了用于构建Zephyr的所有源代码和数据集,并计划随着未来AI模型的发布更新手册。 --- 本贴转自站长之家(ChinaZ.com)
ChatGPT工程师年薪曝光:中位数约674万元人民币 随着ChatGPT的爆火,OpenAI公司也成为了外界关注的焦点。 根据美国薪资跟踪网站的数据显示,目前OpenAI软件工程师的中位数年薪高达92.5万美元(约合674万元人民币),包含了30万美元的基本工资和62.5万美元的利润参与单位(PPU)。 PPU为OpenAI独创的一种激励机制,可以让员工分享公司未来的盈利空间,由于OpenAI无法出售股份,所以采用了这种方式来与大型科技公司争夺人才。 具体而言,要将PPU转化为现金有两个选择:第一是持有PPU,直到公司获得可观的利润;第二则是直接选择是将其卖给其他人。 至于具体薪资,目前薪酬最低的入门级L3工程师(约2至4年的行业从业经验)底薪也有21万美元(约合153万元人民币)。 而L5软件工程师(拥有10年以上工作经验)的底薪就达到了30万美元(约合218万元人民币),还有额外的股票薪酬等等。 至于一些更高级别的高级软件工程师,年薪最高可以达到140万美元(约合1020万元人民币)。 OpenAI的高薪不仅对个人,甚至对整个行业都产生了影响,根据该网站的数据,在以科技人才库著称的旧金山,AI软件开发人员的平均年薪约为30万美元。 而OpenAI以三倍的薪酬,为该地区的薪酬设定了新的基准,并且表明了其吸引和留住顶尖AI人才的决心。ChatGPT工程师年薪曝光:中位数约674万元人民币© 由 快聊IT 提供 --- 本贴转自快科技11月9日消息,
奥特曼投资前苹果员工创立首款AI硬件炸圈,支持访问ChatGPT 你的下一部手机,何必是手机? 喏,就是这样一个别在衣领上的小玩意,已经支持访问ChatGPT了。它能胜任诸多智能手机能干的事,且更方便。 按一下即可开启智能语音助手,让它打电话、写短信、整理邮件等。转动手掌就能切换按键选项。 点一下手指表示确认,有点Vision Pro的感觉。这就是最新的AI硬件AI Pin,来自OpenAI奥特曼投资的初创公司Humane,创始人均曾在苹果任职。 它的重量大约55g,和一个网球差不多。通过磁铁吸在衣服上,据说跑步也不会掉。 设备内置了运动传感器、深度传感器等,可以感知运动状态和周边环境。支持语音、手势交互,具备视觉识别能力。也能及时拍照和录像。在AI Pin被开启时,“信任灯”会闪烁提示周围其他人。现在AI Pin已正式上线,下周可预定,明年年初发货。 东西虽小但是价格不低。官方定价699美元,折合人民币大约5000块,和一部智能手机差不多。每个月订阅费用为24美元。 作为一款新型AI设备,AI Pin发布前夕就引来不少关注,毕竟这个赛道里还有OpenAI和苹果前灵魂设计师Jony Iver入局。 英伟达AI科学家Jim Fan评价,它拉开了“环境智能”的序幕,让AI的物理存在感降低,只在你需要的时候出现。--- 本贴转自商业新知,有删减 明敏 发自 凹非寺 量子位 | 公众号 QbitAI 图:奥特曼投资前苹果员工创立,这家公司首款AI硬件炸圈,支持访问ChatGPT© 由 商业新知 提供
Snap 将 ChatGPT 添加到其 AR 中 Lens Fest 上重点关注人工智能 Snap 今日宣布,向开发者发布其增强现实(AR)开发工具的最新版本——Lens Studio 5.0 Beta。这一新工具旨在支持更高级的 AR 开发,提高生产效率,并新增了由 OpenAI 支持的新 AI 功能。这一消息在当时时间周四的 Snap 年度 Lens Fest AR 开发者大会上公布。Snap Lens Studio Beta© 由 站长之家 提供 图片来自 Snap Snap 公司与 OpenAI 合作,为开发者提供新的 ChatGPT Remote API,使开发者能够在他们的 Lens 中利用 ChatGPT。开发者可以生成基于文本的内容,为 Snapchat 用户创造新型的学习、对话和创意体验。例如,开发者可以创建由 ChatGPT 生成的无限问答游戏和随机内容的 Lens。或者,他们可以根据用户的提示,自动应用滤镜和导演模式,创造改变相机风格的新型 Lens。 值得一提的是,这并非 Snap 首次利用 OpenAI 的技术,其 My AI 聊天机器人就是由该公司的 GPT 技术提供支持的。 Lens Studio 5.0 Beta 的另一个新 AI 功能是 3D 面部面罩生成器,它能够「在几秒钟内让任何人构建他们的第一个潜在流行的自我表达 Lens」,公司表示。3D 面部面罩生成器结合了生成式 AI 和 Snap 的面部网格功能。 Lens Studio 5.0 Beta 还提高了生产效率,能使项目加载速度提高 18 倍。Snap 表示,提高的生产效率将使开发者能够创建更复杂的 AR 项目。此外,Lens Studio 5.0 Beta 支持诸如 Git 之类的版本控制工具,这意味着多个开发者可以同时在项目上工作。 去年,Snap 推出了具有数字商品的 Lenses,允许开发者提供 Snapchat 用户可以付费解锁的专属 AR 功能。现在,任何开发者都可使用数字商品。Snap 指出,Lens Explorer 的新版块将推广带有数字商品的 Lens,使 Snapchat 用户更容易找到并尝试它们。 Snap 表示,现在有 330,000 名开发者在其 AR 平台上构建,他们已经创建了近 350 万个 Lens。这些 Lens 在过去一年中被 Snapchat 用户查看了超过 3 万亿次。 该公司还更新了其 Lens Creator Rewards 计划的信息,该计划在夏季推出,为 AR 创作者和开发者提供了赚取高达每月 7,200 美元的最佳表现 Lens 的机会。在第一个月,超过 45,000 个 Lens 选择参与,为 Snapchat 用户产生了超过 50 亿次 Lens 互动。 Snap 没有透露它已经向开发者支付了多少奖金作为该计划的一部分。然而,Snap 表示,支付的金额取决于 Lens 的表现,而且参与度是根据观看量「以及其他各种参与度指标」的专有公式确定的。 --- 本贴转自站长之家(ChinaZ.com)
ChatGPT全线大崩溃!奥特曼亲自致歉:流量远超预期 OpenAI前脚科技春晚炸翻全球,后脚自家院子却没能守住。 原因无他,就是火爆????,太太太太火爆????! 火爆到直接全线崩溃,无论是ChatGPT还是API,压根没法用,堪称史上最大的一次事故????。从昨天深夜开始,很多小伙伴们跟ChatGPT的对话就变成这样了: 我:出什么问题了吗? ChatGPT:嗯……确实出了些问题。 然后OpenAI官方也在事故报告中亮出了罕见的“红牌警告”:CEO奥特曼也亲自下场致歉: 新功能的热度远远超出了我们的预期。 我们原本计划是在周一的时候为所有订阅者提供GPTs,但现在仍然无法实现。我们希望这个进度能加快。 由于负载的原因,短期内可能会出现服务不稳定的情况,对不起。不过OpenAI这么一宕机,崩溃的可不只是服务器,还有广大网友和AI创业者们…… ChatGPT全线崩溃近俩小时 根据监控网站Down Detector收到的事故报告来看,大约在北京时间昨晚21点35分,情况就开始出现,网站突然就收到1353份错误报告。 仅仅半小时后,这个数字就飙升到最高点:6773份。换算一下时间,崩溃发生之时,OpenAI那边大约在凌晨5点半左右。 大约快半小时后,OpenAI开始火速调查问题。 过了1个小时,官方终于更新事故报告,称定位到API和ChatGPT的错误率都很高。 此时,Down Detector那边收到的错误报告仍可以说是“居高不下”,还有5607份。 不少用户都抱怨他们收到了“ChatGPT is at capacity right now”(ChatGPT目前已满载)的错误。 好在“十万火急”,官方在定位到问题之后更快就找到了原因,并开始努力修复。 大约40多分钟后,OpenAI终于宣告服务已恢复。 此时大概是那边的早上7点半,北京时间晚上11点半。 算下来,崩溃一共持续了近俩小时。 从事故报告来看,OpenAI将此次事件也再次定性为了“重大宕机”(Major Outage)。 之所以措辞“也”,是因为在今年3月份和8月份已发生过类似事故,宕机时间分别为12小时、3小时。 不过,原因有所不同,就像3月份那次是因为数据库迁移失败造成。这次,显然跟ChatGPT本周的“春晚”脱不了干系。 北京时间本周二凌晨的开发者大会一开,全新的GPT-4 Turbo、自定义GPT以及GPT商店就全跟着上线。 GPT-4 Turbo直接支持128k上下文,相当于一次能读300页书籍,知识库更新到今年4月。自定义GPT功能可以让人3分钟不到、编程也不用,就get一个专属技能的GPT,还能把它上线商店卖钱,可谓人人都是开发者。 此外,还有稍早一点的产品逻辑变更,用户终于不再需要手动选择联网、DALL·E 3等模式,全部“All in one tool”。 如此一系列炸裂又强大的更新,让网友无比兴奋,推送一上线,一下子就挤满了来尝鲜的人们。 然而,根据奥特曼在开发者大会上透露,ChatGPT目前每周用户数量已达到一个亿,还有200万开发人员使用其API服务(其中超92%来自财富500强公司),俨然早就是“流量王者”。 面对一波暴增的新流量,尽管OpenAI肯定有准备,但还是一个没遭住。 有网友反应新功能有多么不稳定,有人甚至抱怨怎么还没收到更新。 而在迎来这次全线大崩溃之前,OpenAI其实已经在周二就出现了大约1小时的“部分停机”。 侧面反应ChatGPT实火,OpenAI面临的算力和服务器稳定性也充满了挑战。 网友集体在线崩溃 正如我们刚才提到的,OpenAI短短数小时的崩溃,更是让部分用户们的心态崩了。 网友们很形象地找出了一个段子来形容这种名场面——AI创业公司老板: 喂?是OpenAI吗?你们宕机了,所以我们也没法工作了!老板继续咆哮道: 整个公司都没法运转了,你们这帮家伙好像漠不关心!虽然这只是个段子,但在OpenAI全线崩溃的数小时里,也有不少网友道出了自己内心真实的声音。 例如有表示“没法工作了”的,甚至在抱怨: 得~我现在得手敲邮件了????。不过这也让一部分人感到开心,终于可以摸鱼了: 大停电!!! 是时候放松一下去看奈菲了????。还有更绝了——谷歌Bard莫名躺枪,成了备胎。 因为ChatGPT宕机,我第一次使用谷歌Bard。 老实说,还挺好用的,就是语气跟ChatGPT不太一样,有点难以理解。Bard要是看到这位网友的话,估计都得跳出来说一句“你礼貌吗”。 …… 虽然这次OpenAI的全线崩溃,引发了网友们不少精彩且drama的桥段。 不过这也从侧面反映出了现在ChatGPT对人们日常工作、生活影响之深。 而正如奥特曼所说,新GPTs的功能即将全面开放,届时OpenAI能否顶住这泼天的流量,以及更多用户们又将带来怎么样的创意价值,着实是有点期待了。 Two More Things 在这次OpenAI宕机风波之余,还有两件小插曲值得说道说道。 首先就是有人发现,不仅是ChatGPT崩溃了,就连Claude也崩了(就很迷)……其次就是手机版ChatGPT,现在又有重磅更新!手机上的APP也可以无需切换模式,就能浏览网页、分析数据,以及生成图片了????。 参考链接: [1]http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fstatus.openai.com%2Fincidents%2F00fpy0yxrx1q&urlrefer=2dd215176603ef6cb3fea00b05c5a726 [2]xxx [3]http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fnews.ycombinator.com%2Fitem%3Fid%3D38190401&urlrefer=02206dc9fb0a731790f9166b4b23199a [4]xxx ---本贴转自 金磊 丰色 发自 凹非寺 量子位 | 公众号 QbitAI
ChatGPT将为职场老人带来福音 超过40岁的职场老人学习能力差,既有能力过时,精力不够,但唯独有一点优势,那就是经验。然而在快速迭代的信息时代,与年轻人同台竞争,职场老人拥有的经验却难以发挥作用。主要卡在缺乏将经验变现的工具,同时缺乏年轻人的精力。 北京时间11月7日凌晨2点,OpenAI在美国旧金山举行首场开发者大会,GPT大模型更新到GPT-4 Turbo版本,并进一步完善了大模型开发的业务架构,推出吸引软件开发者的“商店”产品、版权盾、API开发助手等。ChatGPT新版本延续着一个令人兴奋的趋势,编程的门槛越来越低,越来越倾向于拖拉拽就能完成一个应用,甚至通过与GPT的几轮简单对话就能生成一个应用。 对于职场老人来说,这无疑是一个好消息。ChatGPT就是他们苦苦寻找的工具,利用这类工具,就能够将自己拥有的经验变为跟上时代的能力,并且随着ChatGPT的发展,使用这种工具的门槛在变低,让职场老人们看到了一线希望。有人说,这个时代越来越属于年轻人。的确,年轻人有活力,精力充沛,记忆力好,学习能力强。面对新任务,职场老人没有什么优势,即使有老道的经验,也被快速迭代的知识更新抵消了。 超过40岁的职场老人,加班加不过年轻人,熬夜熬不过年轻人,知识结构老化,随着记忆力衰退,学习能力也在随之退化。唯一的优势,看起来就是踩坑几十年积累的经验。然而在瞬息万变的信息时代,这些经验的作用却得不到发挥。很多时候,年轻人就算试错的效率都比经验来得更高效。 因此,不同于工业化初始阶段的机械化时代,当社会进入信息化时代后,经验的作用退居其次,职场老人的优势荡然无存。 一个将经验变为能力的工具,是职场老人梦寐以求的机会。 ChatGPT的低门槛趋势,让创建应用变得不是那么难,特别是让那些信息技术的门外汉,也看到了利用ChatGPT创建实现自己创意的希望。这些应用中,能够包含自己多年来总结的行业经验。 同时,GPT强大的知识背景,让学习新知识显得并不那么重要,完全可以将一些自己不擅长的部分交给人工智能助手,或者将自己不擅长的领域外包给人工智能生态里的其他成员。在一个精力更加充沛,知识结构更新,有着海量成员的人工智能生态中,职场老人的劣势不再是劣势。 需要注意的是,这一变化,也需要职场老人主动拥抱,跨过第一道与ChatGPT交互的门槛,才能享受工具带来的益处。 --- 本贴转自易有料pc.yiyouliao.com, 行者啊
ChatGPT只算L1阶段,谷歌提出AGI完整路线图 AGI应该如何发展、最终呈什么样子? 现在,业内第一个标准率先发布: AGI分级框架,来自谷歌DeepMind。ChatGPT只算L1阶段,谷歌提出AGI完整路线图© 由 商业新知 提供 该框架认为,发展AGI必须遵循6个基本原则: 关注能力,而非过程 同时衡量技能水平和通用性 专注于认知和元认知任务 关注最高潜力,而非实际落地水平 注重生态有效性 关注整条AGI之路的发展,而非单一的终点 在此原则之上,AGI将呈现6大发展阶段,每个阶段都有对应的深度(性能)和广度(通用性)指标。ChatGPT只算L1阶段,谷歌提出AGI完整路线图© 由 商业新知 提供 我们当前的AI产品走到哪一阶段了?这里也有答案。 详细来看。 6项基本原则 什么是AGI? 对于这个问题,许多科学家、研究机构都给出了自己的理解。 比如图灵提出的图灵测试认为机器是否能“思考”就是一个衡量指标;强人工智能的概念提出者则认为,AGI是一个拥有意识的系统;还有人说AGI一定是能在复杂性和速度上与人脑一样甚至超越人脑…… 谷歌认为,这些定义都不全面。 像图灵测试,一些LLM已经可以通过,但我们能称那些模型为AGI吗? 像类人脑说法,Transformer架构的成功就已表明,严格基于大脑的思考过程对于AGI来说并不是必须的。 通过分析这些定义(一共9种,详情可翻阅原文)的优缺点,谷歌重新理出了6项基本原则: 一、关注能力,而非过程。 这可以帮助我们去除一些不一定是实现AGI的必备要求: 比如AGI不一定要用类似人类的方式思考或理解,也不意味着系统必须具有主观意识等能力(主要是这种能力无法也通过固定的方法去测量)。 二、注重通用性和技能水平。 目前所有的AGI定义都强调了通用性,这一点不必多说。但谷歌强调,性能也是AGI的关键组成部分(也就是可以达到人类的几分水平)。在后面的具体阶段制定中,主要也是根据这俩指标进行分类的。 三、专注于认知和元认知任务。 前者目前基本为共识,即AGI可以执行各种非体力任务。不过谷歌在此强调,AI系统执行物理任务的能力也需要加强,因为它对于认知能力是有推动作用的。 此外,元认知能力,如学习新任务或知道何时向人类寻求帮助,是系统走向通用性的关键先决条件。 四、关注最高潜力,而非实际落地水平 证明一个系统可以在给定的标准上完成任务,就足以宣布该系统为AGI,我们不要求一定得在开放世界中完全部署出水平相同的系统。 因为,这可能会面临一些非技术阻碍,比如法律和社会考虑、潜在道德问题。 五、注重生态有效性。 所谓生态有效性,谷歌指的是选择真正有用的现实任务去benchmark系统的进步,这些任务不仅包括经济价值也包括社会和艺术价值,要避开那些容易自动匹配和量化的传统AI指标。 六、关注整条AGI之路的发展,而非单一的终点。 这也是为什么谷歌要制定我们接下来将要看到的6个发展阶段。 6大必经阶段 AGI之路的6个阶段由深度指标(即技能水平,与人类相比)和广度指标(通用性)进行划分。 第零阶段为“No AI”,计算软件、编译器等属于该范畴,在通用性上只能执行human-in-the-loop任务。 第一阶段为“涌现级”(Emerging),技能相当于或略比没有相关技能的人类要强。 ChatGPT、Bard和Llama 2等大模型就属于该阶段,并且已经满足了该阶段要达到的通用性。 第二阶段可理解为“刚刚合格级”(Competent),可以达到正常成年人50%的水平。 像语音助手Sir、能在短文写作/简单编码等任务中达到SOTA水平的大模型都属于这一阶段。 不过,它们都只是在技能指标上合格了,通用性还够不上,也没有其它能够达到这一阶段通用性水平的AI产品。ChatGPT只算L1阶段,谷歌提出AGI完整路线图© 由 商业新知 提供 第三阶段为“专家级”(Expert),可达到正常成年人90%的水平。 谷歌认为,拼写和语法检查器如Grammarly、图像生成模型Imagen等可以划为该阶段,主要也是在技能水平上达标了,通用性还不够。 第四阶段为“大师级”(Virtuoso),可达到正常人类99%的水平。 深蓝、AlphaGo等都属于。同样,还没有哪个AI产品可以达到属于这一级别的通用能力。 最后一阶段为“超人级”(Superhuman),在技能指标上,已经可以超越顶尖科学家的AlphaFold、AlphaZero也可划入该阶段。 毫无疑问,具备超人智能级通用性的AI还没诞生。ChatGPT只算L1阶段,谷歌提出AGI完整路线图© 由 商业新知 提供 从中我们看出,按照谷歌这个标准来看,大多数已有AI产品其实都分别进入了不同的AGI阶段,但只仅限于在技能水平上——要谈及通用性,目前只有ChatGPT等模型完全合格。 但它们也只还处于最底层的“一级AGI”阶段。 不过,正如原则2所说,评价AGI就是要看这技能水平和通用性这两个指标,这样划分也算说得过去。 值得一提的是,我们可以看到,像DALLE-2这样的图像生成模型已经可以归类于“三级AGI”。 谷歌给出的理由是,因为它生成的图像已经比大多数人都要强了(也就是超越90%人类)。 这一划分并未考虑大多数用户由于提示技巧不佳,无法达成最佳性能的情况。 因为遵循原则4,我们只需要关注一个系统的潜力到了就够了。 另外,对于最终阶段的AGI,谷歌畅想,它除了蛋白质结构预测,还可能能同时进行与动物交流、分析大脑信号、进行高质量预测等各种人类难以企及的任务,这样才不枉费我们的期待。 最后,对于这个层级划分,谷歌也承认还有很多事情要做: 比如在通用性维度上,应该用哪些标准任务集进行测量?完成多大比例的任务才行?有哪些任务是一定要满足的? 这些问题一时都不大可能全部摸清。 你同意谷歌提出的这些原则和阶段划分吗? 原文: http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Farxiv.org%2Fabs%2F2311.02462&urlrefer=1fee8fec64a50e991b372826bc00030d --- 本贴转自 丰色 发自 凹非寺 量子位 | 公众号 QbitAI
微软与 Inworld AI 的合作将生成式 AI 引入 Xbox 游戏开发引发反 微软正在全力以赴地在多个前沿领域投入人工智能技术,从 OpenAI 到 DALL-E,而如今,随着 AI 技术渗透其视频游戏部门,这引发了业内的新一轮担忧。微软宣布与 Inworld AI 建立合作伙伴关系,旨在使用其技术「赋能 Xbox 游戏开发者」提供 AI 工具。此次合作并非仅限于传统的游戏 AI 行为——这一行业古老概念,而是实际的生成式 AI,这让从开发者到作家,再到配音演员以及游戏玩家都感到忧虑,并对这一概念提出了抵制。Inworld AI 承诺将通过其技术为 Xbox 带来以下内容: - 一个 AI 设计辅助工具,帮助游戏设计师探索更多创意点子,将指令转化为详细脚本、对话树、任务等。 - 一个可集成到游戏客户端的 AI 角色运行时引擎,为玩家带来全新叙事体验,包括动态生成的故事、任务和对话。 这一切都是在「赋能创作者」这一旗帜下进行的,然而,基于 AI 生成的剧本、任务线和背景故事等却遭到了大多数开发者的立即且深刻的拒绝。此外,考虑到今年业内大量的裁员事件,这一时机更是引人关注。 那些被认为将被赋能的创作者实际上并不想使用这项技术。这几乎和大多数编剧被告知 AI 可以增强他们的工作,或者艺术家们认为 AI 可以帮助他们创作时的反应一样,这更有可能摧毁他们整个工作领域。现在正处于好莱坞的两次重大罢工中,部分原因就是 AI 技术。编剧罢工要求防止 AI 撰写大多数剧本草稿或获取荣誉。演员罢工陷入僵局,因为制片厂希望演员一次性签掉他们的形象权,以便 AI 技术可以无限期地生成他们的表演。 视频游戏产业的问题在于,没有广泛、全面的开发者联盟或编剧联盟。视频游戏配音演员可以并且已经罢工,但这只是其中一部分,而且产业并没有设置在同样的方式来拒绝这类技术,它必须基于工作室与工作室之间的基础来实现。 像这样的生成式游戏 AI 技术还非常初级,Inworld 能否真正生产出半路可行的产品还是一个未知数。可以理解与一个由 AI 驱动、能够朝着无限方向发展的 NPC 对话的基本想法,这是正常脚本所无法实现的,但这似乎是非常基础的思考,忽略了游戏的其他所有组成部分。 AI 是当下的狂野西部,所有行业都在试图取得一席之地,弄清楚如何利用它来取代人类并节省资金。特别是微软,它对 AI 的重视之深、发展之快,不断撞击着各种障碍,比如 DALL-E 生成的不当图像不得不被严格审查,或者 AI 生成的民意调查询问读者关于一个新故事中女性是如何死亡的。那么,Xbox AI 游戏开发技术究竟会给我们带来什么?我们不确定何时才能发现,因为首先必须找到实际同意使用这项技术的工作室和开发者。 --- 本帖转自站长之家(ChinaZ.com)
谷歌将为广告商带来一系列生成式人工智能功能 谷歌发布博客文章宣布,正在推出一系列新的生成式人工智能工具,旨在创造广告内容,从撰写出现在搜索结果旁的标题和描述,到创建和编辑配图。图片来自 Google 谷歌正在将此工具推广给广告代理机构以及没有内部创意团队的企业。广告商可以使用文本提示来迭代他们生成的文本和图像,直到找到他们喜欢的内容。 谷歌还承诺它将永远不会生成两个相同的图像,这可以避免两个竞争商家最终使用完全相同的照片元素的尴尬可能性。 分步式广告创造器将推给使用谷歌 Performance Max 广告活动产品的用户,并且能够生成专为谷歌如搜索和购物等位置设计的广告。类似于新 Google Pixel 8 上提供的 Magic Editor 功能(如天空替换)的高级图像编辑解决方案也将上线。 客户可以使用编辑器更新现有的视觉广告,这些广告可以保留主要资产,同时进行相关变更。在谷歌提供的一个示例中,用户重用了一个带有护肤产品的模特,但将背景替换为圣诞树,以便于假日营销。此外,您还可以生成用于不同情况的广告版本。 使用 Merchant Center Next(一个控制产品在谷歌各处如何展示的工具)的零售商也将获得 AI 生成工具。据谷歌表示,所有 AI 生成的广告内容将受到 SynthID 的约束,这是一种元数据水印,有助于检测使用 AI 制作的内容。 --- 本帖转自站长之家(ChinaZ.com)
OpenAI 宣布每周有一亿用户使用ChatGPT 11月7日凌晨,美国人工智能公司OpenAI在开发者大会上宣布,每周有一亿人使用他们的人工智能模型ChatGPT。自今年3月以来,OpenAI已经通过API发布了ChatGPT和Whisper模型,并且已经吸引了超过200万的开发者,其中包括92%以上的财富500强企业。 除了公布这些数据,OpenAI还详细介绍了一系列新功能,其中包括一个用于构建定制版ChatGPT的平台,以帮助用户完成特定任务。另外,他们还发布了一款名为GPT-4Turbo的新模型,这个模型可以了解到2023年4月之前的世界大事,并提供相当于300多页文本的提示。图:GPT-4,OpenAI,ChatGPT Plus,人工智能© 由 站长之家 提供 与此同时,OpenAI还宣布将API的价格下调近3倍,从每1000个输入收费20美元降到了10美元。这个举措意味着用户现在可以更经济地使用OpenAI的人工智能服务。 据OpenAI解释,他们下调API价格的目的是为了让更多的用户能够享受到他们的人工智能服务。OpenAI希望通过提供更经济的选择,让更多的人能够在不同的领域中受益于ChatGPT和Whisper模型的应用。 OpenAI的目标是构建人工智能系统,使之能够广泛地为用户提供有用且安全的工具。他们希望通过持续的研发和改进,让人工智能在各个领域发挥更大的作用,并为用户带来更多的便利和价值。 --- 本贴转自站长之家,nakake 的报道
短短 45 分钟发布会,OpenAI 如何再次让 AI 圈一夜未眠 对于 AI 行业从业者来说,刚刚可能是一夜未眠。 北京时间 11 月 7 日凌晨,美国人工智能公司 OpenAI 的开发者大会正式开启,创始人 Sam Altman 在台上和同事,只用 45 分钟时间,就「轰」出了团队最新的成果 GPT-4 Turbo,后者不仅更快、有更长的上下文、而且更好的控制。 同时,OpenAI 下调 API 的价格近 3 倍,降到了 1000 输入/美分,让在场开发者欢呼不已。 当然,更重要的是,OpenAI 推出了「GPTs」——让人们能用自然语言构建定制化 GPT,然后,你猜到了——可以把 GPT 上传到即将发布的「GPT Store」! 如果说 GPT-4 Turbo 是更好用的「iPhone」,GPT Store 则可能是让 OpenAI 成为「苹果」一样的巨头的重要一步。 当竞争对手们依然在「AI 炼丹」时,OpenAI 已经开始构建起一个看起来相当宏伟的生态了。 GPT-4 Turbo,更快,更省钱 发布会一开始,Sam Altman 就宣布了 GPT-4 的一次大升级,推出了 GPT-4 Turbo,同步在 ChatGPT 和 API 版本推出。 Sam Altman 表示团队一直在征求开发者的建议,对开发者关注的问题做了六大升级,分别是更长的上下文长度、更强的控制、模型的知识升级、多模态、模型微调定制和更高的速率限制。 其中前四条主要关于新模型的性能的提升,而后两点则主要针对企业开发者的痛点。在提升性能的同时,OpenAI 还宣布了 API 价格的下调,可谓「加量不加价」了。Sam Altman 公布 GPT 的六大升级|OpenAI 六大升级中, 第一,就是上下文长度。 OpenAI 原本提供的最长的上下文长度为 32k,而此次,GPT-4 Turbo 直接将上下文长度提升至 128k,一举超过了竞争对手 Anthropic 的 100k 上下文长度。 128k 的上下文大概是什么概念?大概约等于 300 页标准大小的书所涵盖的文字量。除了能够容纳更长上下文外,Sam 还表示,新模型还能够在更长的上下文中,保持更连贯和准确。 第二,是为开发者提供了几项更强的控制手段,以更好地进行 API 和函数调用。 首先,新模型提供了一个 JSON Mode,可以保证模型以特定 JSON 方式提供回答,调用 API 时也更加方便。 另外,新模型还允许同时调用多个函数,同时引入了 seed parameter,在需要的时候,可以确保模型能够返回固定输出。接下来几周,模型还将增加新功能,让开发者能看到 log probs。 第三,则是模型内部和外部知识库的升级。 ChatGPT 横空出世大概一年后,GPT 的知识库终于更新到了 2023 年 4 月。Sam Altman 承诺未来还将继续更新其知识库,不使其落伍。「对于 GPT 的知识停留在 2021 年,我们和你们一样,甚至比你们更恼火。」Sam Altman 表示。GPT 内部知识库终于升级到了 2023 年 4 月|OpenAI 除了内部知识库的升级,GPT-4 Turbo 也升级了外部知识库的更新方式,现在可以上传外部数据库或文件,来为 GPT-4 Turbo 提供外部知识库的支持。 第四,或许是最不让人意外的,多模态。 新模型支持了 OpenAI 的视觉模型 DALL·E 3,还支持了新的文本到语音模型——开发者可以从六种预设声音中选择所需的声音。多模态成为 GPT 的内置功能|OpenAI GPT-4 Turbo 现在可以以图生图了。同时,在图像问题上,目前 OpenAI 推出了防止滥用的安全系统。OpenAI 还表示,它将为所有客户提供牵涉到的版权问题的法律费用。 在语音系统中,OpenAI 表示,目前的语音模型远超市场上的同类,并宣布了开源语音识别模型 Whisper V3。 第五,模型微调与定制。 8 月,OpenAI 曾经发布过 GPT-3.5 Turbo 的微调服务。当时,有早期测试表明,经过微调的 GPT-3.5 Turbo 版本在某些任务中甚至可以超越 GPT-4,不过定价相对较高。 而此次,Sam 宣布 GPT-3.5 Turbo 16k 的版本目前也可以进行微调的定制了,且价格将比前一代更低。GPT-4 的微调定制也在申请中了。 同时,OpenAI 也开始接受单个企业的模型定制了。「包括修改模型训练过程的每一步,进行额外的特定领域的预训练,针对特定领域的后训练等等。」Sam 表示。同时他表示,OpenAI 没有办法做很多这样的模型定制,而且价格不会便宜。 第六,也是最后一点,是更高的速率限制。 GPT-4 用户,发布会后马上可以享受到每分钟的速率限制翻倍的体验。同时,如果不够满意,还可以进一步通过 API 账户,申请进一步提升速率限制。 六大升级以外,是 API 体系的全线降价。 此次新发布的 GPT-4 Turbo,输入方面比 GPT-4 降价 3 倍,而输出方面降价 2 倍,OpenAI 表示,总体使用上降价大概 2.75 倍。 新模型的价格是每千输入 token 1 美分,而每千输出 token 3 美分。降价的 API 迎来了现场开发者的欢呼。 Sam 还表示,在优先解决价格之后,下一个重点解决的问题将是速度问题,很快,开发者们就会发现 GPT-4 Turbo 将变快很多。 GPT Store 来了! 早在 5 月,OpenAI 就开放了插件系统,首批上线了 70 个大模型相关的应用,领域包括猜词、翻译、查找股票数据等等。GPT Store 风格都非常「App Store」|OpenAI 当时,该功能被寄予厚望,不少媒体将其类比于苹果的 App Store 时刻,认为它将改变大模型应用的生态。不过虽然后期插件不断增加,但插件系统却远远没有达到苹果应用商店的影响力。 而此次发布会上,OpenAI 则重新梳理了其应用商店的体系,并将其扩大到了一个全新的范畴——人人都能通过自然语言创建基于自己的知识库的 AI Agent,加入 OpenAI 的应用商店,并获得分成。 OpenAI 此次发布的应用,不再称为插件,而选择了一个相对比较奇怪的名字,GPT。而整体的应用商店,名字叫做 GPT Store,将在本月后期正式推出。 按照 Sam Altman 的说法,每一个 GPT 像是 ChatGPT 的一个为了特殊目的而做出的定制版本。OpenAI 的工作人员尝试让 ChatGPT 管理自己的生活|OpenAI 为了突出新的 GPT 应用,ChatGPT 整个页面将有小幅度的调整。左上角除了 ChatGPT,下面的应用,就是此次推出的 GPT 应用。 在演示中,可以看到,较为复杂的插件——比如曾经在 OpenAI 上线插件系统时第一批进入插件系统的 Zapier,仍然存在于目前的应用商店中,而且仍然可能是未来应用商店里很重要的一批应用。 演示中,OpenAI 的 Jessica Shay,就利用了 Zapier 链接了自己的日历和手机短信,通过与 Zapier 这个应用聊天的方式,直接安排了自己的日程,并通知了同事。 不过,Zapier 的功能虽然强大,这样的应用并不是此次发布的重点。据 Glassdoor 数据显示,Zapier 公司拥有 500-1000 名员工,而财富网站报道,Zapier 估值已达 50 亿美金。指望这样的应用来填充 OpenAI 的羽翼未丰的应用商店,使其成为一个丰富的生态显然不太现实。 因此,此次发布中,OpenAI 推出一个重磅发布:让不懂代码的人也能轻松定义一个 GPT。 Sam Altman 为此进行了现场展示。 「在 YC 工作过很多年,我总是遇到开发者向我咨询商业意见。」Sam Altman 讲到,「我一直想,如果有一天有个机器人能帮我回答这些问题就好了。」 接着,Sam Altman 打开了 GPT Builder,先打上一段对这个 GPT 的定义,类似于帮助初创公司的创始人思考他们的业务创意并获得建议,接着,在对话中,GPT Builder 自己生成了这个 GPT 的名字、图标,并通过与 Sam 对话的形式,询问 Sam 是否要对对生成的名字和图标等进行调整。Sam Altman 正在创建一个「创业导师 GPT」|OpenAI 接下来,GPT Builder 主动向他询问这个应用该如何与用户交互,Sam 表示可以从我的过往演讲中选择合适且有建设性的回答,然后上传了一段自己过往的演讲。 即使加上讲解,整个应用也在三分钟内就完成了。访问这个 GPT 的人,会收到 GPT 自动生成的对话开头,可以与这个 GPT 对话咨询创业相关的内容,而得到的,将是一个类似于 Sam Altman 本人的回答。 Sam 表示,创建者还可以进一步为 GPT 增加 action(动作)。 创建一个这样的 GPT,本质上,用户能够定制的功能其实并不多:指令(预设的 prompt),外设的知识库和动作。但是,能把三者丝滑地结合起来,让一个不懂代码的人也能更简单地创建应用,确实是此次 Open AI 的创举。 GPT 发布后,应用可以选择私有,专属企业拥有和公开所有三种方式。而 Open AI 表示,将为受欢迎的应用提供利润分享。 很明显,OpenAI 在这里的发布,并没有希望普通用户能够通过自然语言创建出多么复杂的应用,其中的想象空间,更重要的在于个人和企业能够将自己的知识库上传到 OpenAI,一键构建专属应用。 比如作为一个拥有货运价格表的代理,可以将文件上传到 OpenAI 后,一键部署出自己的询价助理,这样简洁丝滑的应用部署,在之前还并不存在。而如果发布最终能够得到用户认可的话,类似的应用也将能够填充 OpenAI 的应用商店,使其成为各种信息的宝库。 零代码创建 AI Agent 如果你觉得上述的 0 代码的 GPT 很酷,此次 OpenAI 也推出了让开发者更容易使用 OpenAI API 的开发方式——Assistants API。 Sam Altman 表示,市面上基于 API 构建 agent 的体验很棒。比如,Shopify 的 Sidekick 可以让用户在平台上采取行动,Discord 的 Clyde 可以让管理员帮忙创建自定义人物,Snap 的 My AI 是一个自定义聊天机器人,可以添加到群聊中并提出建议。 但问题是,这些 agent 很难建立。有时需要几个月的时间,由数十名工程师组成的团队,处理很多事情才能使这种定制助手体验。这些事情包括状态管理(state management)、提示和上下文管理(prompt and context management)、扩展功能(extend capabilities)和检索(retrievel)。 在 OpenAI 开发者大会上,这些事情被 API 化——OpenAI 推出 Assistants API,让开发人员在他们的应用程序中构建「助手」。 使用 Assistants API,OpenAI 客户可以构建一个具有特定指令、利用外部知识并可以调用 OpenAI 生成式 AI 模型和工具来执行任务的「助手」。像这样的案例范围包含,从基于自然语言的数据分析应用程序到编码助手,甚至是人工智能驱动的假期规划器。 Assistants API 封装的能力包括: 持久的线程(persistent threads),人们不必弄清楚如何处理长的对话历史; 内置的检索(Retrieval),利用来自 OpenAI 模型外部的知识(例如公司员工提供的产品信息或文档)来增强开发人员创建的助手;提供新的 Stateful API 管理上下文; 内置的代码解释器(Code Interpreter),可在沙盒执行环境中编写和运行 Python 代码。这一功能于 3 月份针对 ChatGPT 推出,可以生成图形和图表并处理文件,让使用 Assistants API 创建的助手迭代运行代码来解决代码和数学问题; 改进的函数调用,使助手能够调用开发人员定义的编程函数并将响应合并到他们的消息中。 Assistants API 处于测试阶段,从今天开始可供所有开发人员使用。开发者可以前往 Assistants Playground 来尝试 Assistants API 测试版,而无需编写任何代码。 Assistants API 被 OpenAI 视为帮助开发者在其应用程序中构建「类 agent 体验」的第一步。有了 Assistants API,构建 agent 应用将变得更容易。OpenAI 表示,随着时间的推移,将会持续提高它们的能力。并且,未来计划允许客户提供自己的 copilot 工具,以补充其平台上的 Code Interpreter、检索组件和函数调用。 OpenAI 开发者大会上的产品升级,再次告诉人们,距离每个人都能有一个甚至多个专属私人助理、使用自然语言就能开发软件、还能像浏览应用一样,付费/免费购买流行的私人助理,这样的一个未来,正在加速向人们走来。 从 GPT-4 到 GPT-4 Turbo 和 GPT Store,OpenAI 只用了半年多一点的时间。而在 6 个月之内,全球的科技和 AI 行业,已经是天上人间。Sam Altman 总结发布会亮点|OpenAI 当多模态、长文本输入、更便宜、个性化……这些旨在和 OpenAI 大模型错位竞争的特点,都被 OpenAI 抢先拿来自我革命;当 OpenAI 的产品在 B 端和 C 端都体现出强大的吸引力、并且还将利用 GPT Store 率先笼络住全球AI 开发者时,不知道全球的 AI 对手们的心情如何。 但 OpenAI 的技术进步是令人兴奋的,而团队所采用的商业策略,又有着超出一般创业公司的成熟——我们目睹着一个行业的潮起,也可能正在见证一个巨头的诞生。 --- 本贴转自ZAKER科技,极客公园 的报道 作者|LiYuan、宛辰 编辑|靖宇 头图来源:OpenAI
【Alpha相关专用帖】单独发帖将予以删帖处理 最近出现大量发布有关ChatGPT Alpha是ChatGPT的实验性发布版的帖子。Alpha版本的访问权限提供给测试人员和那些已经申请了访问权限的人,根据吧友反馈,该特性为测试目的手机反馈,对收到邀请的用户只短期内(可能是3个月)限时推出体验,一段时间后官方会结束该体验,并收回。 请理性看待该特性,由于其特殊的目的,其功能和性能可能并不完善,不要盲目跟从,不要听信过度宣传,避免网络陷阱,避免自己的权益受损。 与此同时Alpha还推出了多语言功能,Chat GPT多語言支持,ALpha(Web),大家可以試試。请将您的浏览器语言设置为OpenAI支持的语言之一,以选择加入Alpha版本并以该语言查看ChatGPT。 此功能处于Alpha测试阶段,需要选择加入, 支持的语言选择有限,目前仅可在chat.openai.com网站上使用。 计划可用性:所有计划 应用程序可用性: Web(chat.openai.com) 支持的浏览器语言: 简体中文 (zh-Hans) 繁体中文 (zh-TW) 法语 (fr-FR) 德语 (de-DE) 意大利语 (it-IT) 日语 (ja-JP) 葡萄牙语 (pt-BR) 俄语 (ru-RU) 西班牙语 (es-ES) 具體操作方法: 1.选择加入并使用您喜欢的语言ChatGPT访问chat.openai.com以在Web上登录ChatGPT。 2.将您的浏览器语言更新为上述支持的任何语言。 3.点击ChatGPT界面中应该显示的横幅中的 “加入Alpha”。 在您选择的语言中提前预览ChatGPT。 [加入Alpha] 例如,当浏览器语言被检测为西班牙语时,您可以选择加入的横幅如下所示:现在您应该可以看到以您选择的语言显示的ChatGPT界面! 以上操作可能只是開啟多語言功能,並不會立刻顯示Alpha的All Tool功能,有關該功能的體驗,可能需要時間,chatgpt吧會持續關注。 这个开启体验Alpha多语言的特性的操作,大概率可能不会触发开启Alpha All Tools的特性。 但也不确定不会触发,截止到目前还没有找到官方有关申请Alpha AllTool体验的waitlist相关文章,可能其支队一部分用户限时开放。需要注意的是,无论是哪一种模式,GPT4,对于云服务来说,都会设定限制 Rate Limit,不存在过度夸张的 无限制,请不要盲目听信,原因很简单,从云服务器性能来看,无限制可能会导致 公共资源被某一个用户占有,回到服务器性能降低,影响其他用户使用,这是不可能发生的。 设置限制,是SAAS服务为保证所有租客用户都能更好体验高性能服务所采取的必要措施,使得资源被公平利用。 因此凡是看到 包含 “无限制” 等内容,请小心谨慎,因为有可能您正在踏入以为你设好的网络陷阱中,请注意保护您的财产和权益。👮chatgpt吧规定:为了保证AI社区的健康交流环境,禁止🈲️任何吧友过度夸张,宣传Alpha,扰乱贴吧秩序,诱导吧友不合理消费。 我们接受举报,一经发现,直接黑名单处理,避免给吧友带来全以上的损失。
马斯克将 xAI 聊天机器人 Grok 与 X 整合,并将推出独立应用 马斯克在周日的一篇帖子中表示,他的人工智能创业公司 xAI 将整合到他的社交媒体平台 X 中,并也将以独立应用的形式提供。他还透露,xAI 于上周五向所有 X Premium+ 订阅用户推出了其首个 AI 模型——一个名为 Grok 的聊天机器人。xAI,马斯克,人工智能,AI© 由 站长之家 提供 该创业公司的目标是创建能够「在寻求理解和知识的过程中协助人类」的 AI 工具,而 Grok 的设计初衷是能够带点机智回答问题。 曾经批评大科技公司的 AI 努力充满了审查的马斯克,于 7 月份推出了 xAI,将其称为「最大程度寻求真理的人工智能」,试图理解宇宙的本质,以与 Google 的 Bard 和微软的 Bing AI 相竞争。 马斯克补充说:「Grok 可以通过 X 平台实时访问信息,这对于其他模型来说是一个巨大的优势。」 虽然社交媒体公司 X(曾被称为 Twitter,现由马斯克拥有)与 xAI 是独立的,但两家公司紧密合作。xAI 还与他的电动汽车制造商特斯拉以及其他公司合作。 上周,在英国布莱切利公园举行的首届全球 AI 安全峰会上,马斯克告诉英国首相 Rishi Sunak,他认为 AI 是「历史上最具破坏性的力量」。他推测,这项技术将能够「做任何事情」,并使我们今天所熟知的就业成为过去。 回顾 2015 年,马斯克与他人共同创立了 OpenAI,这家公司是 ChatGPT 的背后力量,该模型在全球范围内掀起了生成式 AI 技术的热潮,但他在 2018 年辞去了董事会职务。 访问AIbase 产品库查看更多 Grok 介绍:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Ftop.aibase.com%2Ftool%2Fxai-grok&urlrefer=2101b34a44d5e5f2a42f486ffddfdfda。 --- 本贴转自站长之家(ChinaZ.com)
首页 12 13 14 15 16 17 下一页