+ 我要发布
我发布的 我的标签 发现
浏览器扩展
斑点象@Edge

Opera 内置访问本地 AI 模型

浏览器创新者 Opera 将 Opera One 浏览器中增加对大约 50 个模型系列的 150 个本地 LLM(大型语言模型)变体的实验性支持。这一举措将使得用户可以通过浏览器的内置功能,轻松访问和管理本地的LLM。这些本地AI模型是Opera在线Aria AI服务的免费补充。受支持的本地 LLM 包括: + Llama from Meta + Vicuna + Gemma from Google + Mixtral from Mistral AI + And many families more 使用本地的大型语言模型意味着用户的数据将被保存在他们自己的设备上,这样他们就可以在使用生成式AI时,无需将信息发送到服务器。Opera正在在Opera One的开发者版本中测试这组新的本地LLM,作为其新的AI功能弃用计划的一部分,该计划允许早期用户测试浏览器AI功能集的早期和通常是实验性的版本。 Opera One的开发者用户可以有机会选择他们想要处理输入的模型。要测试模型,他们需要升级到最新版本的Opera开发者版本,并按照一些步骤来激活新功能。选择本地LLM将会将其下载到他们的设备上。然后,将使用本地LLM(每个变体通常需要2-10 GB的本地存储空间)代替Opera的原生浏览器AI Aria,直到用户开始与AI的新聊天或重新打开Aria。 在2023年初,Opera推出了Opera One,这是其以AI为中心的旗舰浏览器,基于模块化设计原则和带有多线程合成器的新浏览器架构,可以比以往更流畅地处理UX元素。Opera One具有Aria浏览器AI,可以通过浏览器命令行的浏览器侧边栏访问。Aria也可用于以游戏玩家为中心的Opera GX,以及iOS和Android上的Opera浏览器。
我的笔记