官方指出,因为Chat with RTX在Windows个人电脑和工作站中本地运作,因此可以很快地获得查询结果,而且用户的资料只会保留在装置上。Chat with RTX不仰赖云端大型语言模型服务,而是在本机个人电脑上处理敏感资料,因此不会与第三方共享资料,而且也不需要网路连线。
Chat with RTX展示RTX GPU加速大型语言模型的能力,该应用程式是根据TensorRT-LLM RAG开发者参考专案建置而成,任何人都可以从GitHub上取得,甚至也可以使用该参考专案来开发和部署自己的检索增强生成RTX应用程式。