用户可以将个人电脑本地端文件作为资料集,连接诸如Mistral或Llama 2等开源大型语言模型,快速进行各种查询。Chat with RTX支援多种档案格式,包括.txt、.pdf、.doc/.docx和.xml,将应用程式指向包含这些文件的资料夹,Chat with RTX在数秒内就能将其载入。文件也能够包含YouTube影片和播放列表的资讯,透过将影片网址添加到Chat with RTX,便可以在聊天机器人中整合相关知识进行上下文查询,获得诸如旅行建议或是各种教学课程资源。
官方指出,因为Chat with RTX在Windows个人电脑和工作站中本地运作,因此可以很快地获得查询结果,而且用户的资料只会保留在装置上。Chat with RTX不仰赖云端大型语言模型服务,而是在本机个人电脑上处理敏感资料,因此不会与第三方共享资料,而且也不需要网路连线。
Chat with RTX展示RTX GPU加速大型语言模型的能力,该应用程式是根据TensorRT-LLM RAG开发者参考专案建置而成,任何人都可以从GitHub上取得,甚至也可以使用该参考专案来开发和部署自己的检索增强生成RTX应用程式。