点击蓝字 关注我们
SUBSCRIBE to US
英伟达正在更新其实验性的ChatRTX聊天机器人,为RTX GPU所有者提供更多的人工智能模型。ChatRTX现在支持更多的大型语言模型(LLM,https://blogs.nvidia.com/blog/ai-decoded-chatrtx-update/),包括Google的Gemma和中英双语的ChatGLM3,这不仅扩展了其语言处理能力,也使得用户可以更快速地查询笔记和文档,并生成相关回应。
今年2月,英伟达首次将ChatRTX作为“Chat with RTX”的演示应用程序推出(https://www.theverge.com/2024/2/13/24071645/nvidia-ai-chatbot-chat-with-rtx-tech-demo-hands-on),用户需要一个RTX 30或40系列GPU和8GB或更多的VRAM才能运行它。该应用程序本质上创建了一个本地聊天机器人服务器,您可以从浏览器访问该服务器,并提供您的本地文档甚至YouTube视频,以获得一个强大的搜索工具,该工具包含您自己数据上的问题摘要和答案。
谷歌的Gemma模型旨在直接在功能强大的笔记本电脑或台式电脑上运行,因此将其纳入ChatRTX是合适的。英伟达的应用程序消除了在本地运行这些模型的一些复杂性,由此产生的聊天机器人界面可以让你在模型之间进行选择,这样你就可以找到最适合你自己的数据进行分析或搜索的模型。
ChatRTX可从英伟达网站下载(https://www.nvidia.com/en-us/ai-on-rtx/chatrtx/),现在也支持ChatGLM3,这是一个基于通用语言模型框架的开放式双语(英语和汉语)大型语言模型。还添加了OpenAI的对比语言图像预训练(CLIP),允许用户通过文字与本地设备上的照片和图像进行交互。这项功能使得ChatRTX能够识别和理解图片内容,无需复杂的元数据标记,用户只需用文字描述图片,ChatRTX就能“看懂”图片并进行交流。
此外,ChatRTX现在也支持Whisper语音识别系统,这使得用户可以通过语音与ChatRTX进行交互。用户可以直接向ChatRTX发出语音命令或询问,系统将自动将语音转化为文字,并生成相应的回应。
微信号|IEEE电气电子工程师学会
新浪微博|IEEE中国
 · IEEE电气电子工程师学会 · 
继续阅读
阅读原文