+ 我要发布
我发布的 我的标签 发现
公开标签 #人工智能
通用人工智能(英语:Artificial General Intelligence)或强人工智能(Strong AI)是具备与人类同等智能、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。 强人工智能是人工智能研究的主要目标之一,同时也是科幻小说和未来学家所讨论的主要议题。相对的,弱人工智能(applied AI,narrow AI,weak AI, artificial narrow intelligence, ANI)只处理特定的问题。弱人工智能不需要具有人类完整的认知能力,甚至是完全不具
过去几年,大规模预训练模型在 NLP 领域取得了成功,这类模型可以通过几个示例解决复杂的推理任务,也可以按照指令进行推理。 众所周知的是,预训练模型能取得成功的一个理论基础是,随着容量(即参数量)或预训练数据量的增加,模型能够不断提升性能。 这很自然地引发了研究者们的联想:使用自回归目标对 Transformers 进行缩放的成功是否仅限于文本? 在最新的一篇论文《Scalable Pre-training of Large Autoregressive Image Models》中,苹果的研究者提出了
大多数人工智能初创公司注定要失败的说法可能相当平凡。毕竟,大多数 创业公司都注定要失败,只是从数字上看。 我想说一些更具挑衅性的话。几乎所有在后 ChatGPT 炒作中形成的初创公司,以及专门给自己贴上“AI 初创公司”标签的初创公司都注定要失败。 现在,我是一名风险投资人,长期投资于人工智能——事实上,我最初离开对冲基金界是因为我看到人工智能发生了很多事情。所以,我绝对不是一个人工智能怀疑论者。 话虽如此,我从根本上认为,从投资者的角度来看,在当前的炒作周期中获得的大部分资金都是毫无价值的。 如果你在
智写助手 AI创作工具,写得更好、更快 ZMO.Ai 创建任何图像。 无界AI 无界AI,集prompt搜索、AI图库、AI创作、AI广场等为一体。提供一站式AI搜索-创作-交流-分享服务。 CopydoneAIGC原创文案写作神器,营销内容 快文CopyDone是必优科技旗下一款AI原创营销文案写作神器,通过强大的自然语言处理能力,通过输入关键词,快速生成原创的软文,可以发布在个媒体和自媒体平台,大幅提高创作效率 海艺AI 一款高效且易用的国产AI绘画工具,让你无需专业技能,即可轻松生成大量高质量图片
人工智能的历史源远流长。在古代的神话传说中,技艺高超的工匠可以制作人造人,并为其赋予智能或意识。现代意义上的AI始于古典哲学家试图将人类的思维过程描述为对符号的机械操作。20世纪40年代,基于抽象数学推理的可编程数字电脑的发明使一批科学家开始严肃地探讨构造一个电子大脑的可能性。 1956年,人工智能的研究领域确立于在达特茅斯学院举行的会议。此次会议的参加者在接下来的数十年间成为AI研究领域的领军人物。他们中有许多人曾预言,与人类具有同等智能水平的机器将在不超过一代人的时间中出现。同时,上千万美元被投入到
莫拉维克悖论(英语:Moravec's paradox)是由人工智能和机器人学者所发现的一个和常识相佐的现象。和传统假设不同,人类所独有的高阶智慧能力只需要非常少的计算能力,例如推理,但是无意识的技能和直觉却需要极大的运算能力。这个理念是由汉斯·莫拉维克、罗德尼·布鲁克斯、马文·闵斯基等人于1980年代所阐释。如莫拉维克所写;“要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。” 语言学家和认知科学家史迪芬·平克认为这是人工智能学者的最重要发现,在
WPS AI是由金山办公发布的具备大语言模型能力的人工智能应用,为用户提供智能文档写作、阅读理解和问答、智能人机交互的能力。作为WPS办公套件的重要组成部分,WPS AI将与WPS其他产品无缝衔接,让用户在办公、写作、文档处理等方面实现更高效、更智能的体验。
AI 是历史上发展速度最快的技术之一。一年前几乎没人谈 AI,今天几乎每个人都在谈论 ChatGPT 和 DALL-E 等生成式 AI 工具如何影响未来工作。一个关键问题是:AI 支配的未来将如何影响人类的思维?AI 将让制作虚假信息变得更容易,从虚假图像到深度伪造到虚假新闻。这将影响人们在社交媒体上浏览时对信息的信任感。AI 能让一个人模仿另一个人,这可能会影响人们对身份的看法。你的个人身份也会受到深度伪造的威胁。在技术已经成为一大问题的时代,AI 可能会让人类更依赖于技术更容易被分心。加州州立大学
今年以来,伴随着ChatGPT的迅速走红,人工智能(AI)成为了最为火热的话题,而有远见的人,已经拿它去赚钱了,而且是大赚特赚。 彭博富豪排行榜显示,目前除了股神巴菲特和奢侈品巨头路威酩轩集团(LVMH)董事长Bernard Arnault之外,前十名超级富翁所属领域均为科技领域,伴随着股市的反弹,他们的总财富在今年已经增加了4000亿美元((约合人民币28600亿元)。 其中,四名富豪表现最优,他们分别为Meta创始人扎克伯格、甲骨文创始人Larry Ellison、微软创始人比尔盖茨和英伟达创始人黄
Stable Diffusion 与 GPT-3(.5) 和 GPT-4 等 AI 模型正在改变网络生态。如果人类消费的大部分内容是 AI 生成的,那么 AI 又如何继续改进其模型呢?如果 AI 用 AI 生成的数据进行训练又会发生什么?牛津、剑桥、伦敦帝国学院等机构的研究人员在预印本平台 arXiv 上发表论文,对此展开了分析。研究人员发现,这会导致 AI 模型存在不可逆转的缺陷,他们将其称之为模型崩溃(Model Collapse)。这意味着未来模型训练使用的高质量数据将会愈来愈昂贵,将可能导致网络
图灵三巨头之一 Bengio 在接受 BBC 的访谈时,表达了自己对 AI 发展前景的极大忧虑。 最近,图灵三巨头之一的 Yoshua Bengio 接受了 BBC 的采访。 Bengio 在访谈中透出了一股浓浓的「忧郁风」,表示他对自己一生所追求的事业感到某种程度上的迷失。 往具体了说,他觉得如果自己能早点认识到 AI 可能的发展速度,那他可能就会倾向于 AI 的安全性优先,而非实用性优先。 要知道,Bengio 刚刚签署了前几天公布的「AI 可能灭绝人类」的公开信。 迷失的 Bengio 公开信的签
6 月 14 日,美国心理学会近日发布研究,认为「经常接触 AI 的员工更容易孤独,增加疾病风险」。据称,该研究的首席专家 Pok Man Tang 博士曾在一家投资银行工作,他此前的主要工作内容是参与「人工智能系统的搭建及互动」,这段工作经历令他对「参与接触 AI 的员工心理问题」产生了兴趣。   研究人员进入一家生物医学公司,对其中 166 名使用人工智能系统的工程师,进行了为期三周的调查,了解他们的孤独感、依恋焦虑感和归属感。他们还在其他地方进行了共计四次实验,以保证研究结果的可靠性。在后续针对一
OpenAI(开放人工智能[6])是美国一个人工智能研究实验室,由非营利组织OpenAI Inc,和其营利组织子公司OpenAI LP所组成。OpenAI 进行 AI 研究的目的是促进和发展友好的人工智能,使人类整体受益。 OpenAI 系统运行在微软基于 Azure 的超级计算平台上[7][8][9]。该组织于2015年由萨姆·阿尔特曼、里德·霍夫曼、Jessica Livingston、伊隆·马斯克、伊尔亚·苏茨克维、沃伊切赫·扎伦巴 (Wojciech Zaremba)、彼得·泰尔 等人[10][
一群行业领袖周二警告,他们正在开发的人工智能技术有朝一日可能对人类的生存构成威胁,应被视为与大流行病及核战争同等的社会风险。非营利组织人工智能安全中心发表的一份只有一句话的声明写道:“减轻人工智能带来的灭绝风险应该成为全球的优先事项,就像应对其他社会规模的风险——如大流行病和核战争一样。”这封公开信由逾 350 名从事人工智能工作的高管、研究人员和工程师签署。签署者包括三家领先人工智能公司的高管:OpenAI 首席执行官 Sam Altman,Google DeepMind 首席执行官 Demis Ha
莫拉维克悖论(Moravec's paradox)由汉斯·莫拉维克(Hans Moravec), 罗德尼·布鲁克斯(Rodney Brooks),马文·闵斯基(Marvin Minsky)等人于20世纪80年代提出。莫拉维克悖论指出:和传统假设不同,对计算机而言,实现逻辑推理等人类高级智慧只需要相对很少的计算能力,而实现感知、运动等低等级智慧却需要巨大的计算资源。 语言学家和认知科学家史迪芬·平克(Steven Pinker)认为这是人工智能研究者的最重要发现,在“The Language Instin
训练 ChatGPT 使用监督学习和强化学习在 GPT-3.5 之上进行了微调。[8] ChatGPT使用基于人类反馈的强化学习进行训练,这种方法通过人类干预以增强机器学习的效果,从而获得更为逼真的结果。[9]其使用基于GPT-3.5架构的语言模型。 [10]在训练过程中,人类训练师扮演着用户与人工智能助手的角色。模型在Microsoft Azure的超级计算机上训练,并通过近端策略优化算法(proximal policy optimization)进行微调。[11]这种策略优化算法比信任域策略优化(t
OpenAI(开放人工智能[4])是美国一个人工智能研究实验室,由营利组织 OpenAI LP 与母公司非营利组织 OpenAI Inc 所组成,目的是促进和发展友好的人工智能,使人类整体受益。OpenAI成立于2015年底,总部位于加利福尼亚州旧金山,组织目标是通过与其他机构和研究者的“自由合作”,向公众开放专利和研究成果。[5][6] 创始人伊隆·马斯克以及山姆·柯曼的动机是出于对强人工智能潜在风险的担忧。[7][8]至2018年,OpenAI 的总部坐落于旧金山的米慎区,与伊隆·马斯克的另一座公司
ChatGPT 一出,很多人害怕自己的工作会被 AI 取代。最近,有外媒盘点了最可能被 ChatGPT 取代的 10 大高危职位。 自从去年 11 月发布以来,OpenAI 的 ChatGPT 已经被用来写求职信,创作儿童读物,甚至帮助学生作弊。 聊天机器人可能比我们想象的还要强大。谷歌发现,从理论上讲,如果该机器人在公司面试,搜索引擎会雇用它作为入门级的编码员。 测试 ChatGPT 的亚马逊员工说,它在回答客户支持问题方面做得「非常好」,在制作培训文件方面「很棒」,在回答围绕企业战略的询问方面「非常
好莱坞刻画的人工智能(AI)噩梦就像一部科幻大片描绘的那样:机器人获得了类人的智能,获得了知觉,不可避免地成为企图毁灭人类的邪恶霸主。这种叙述利用了我们对技术与生俱来的恐惧,反映了通常伴随新技术发展的深刻变化。然而正如机器学习工程师、2019 年出版的小说《The Quantum Price》的作者 Malcolm Murdock 所说,“人工智能不必有知觉就能杀死我们所有人。在有知觉的 AI 成为问题之前,还有很多其他场景会消灭我们。”在对 AI 专家的采访中,IEEE Spectrum 列举了 AI
还记得 IBM Watson,“危机边缘(Jeopardy)”节目的 AI 冠军? 2010 年的一项宣传活动称:“Watson 理解具有各种歧义和复杂性的自然语言。”然而正如我们在 Watson 随后在试图“用人工智能彻底改变医学”惨败时看到的,浮于表面的语言能力实际上并不同于真正理解人类语言。 自然语言理解一直是人工智能研究的主要目标。起初研究人员试图手工编程机器理解新闻故事、小说或人类可能写出的任何其他内容所需的一切。正如 Watson 所展示的,这种做法是徒劳的——不可能写下理解文本需要的所有不
1