
Nvidia запустила локальный чат-бот Chat with RTX на базе ИИ для Windows
Когда тенденция использования чат-ботов с искусственным интеллектом (ИИ) начала набирать обороты, большинство людей использовали тот, который подключался к облачному серверу. Однако наблюдается растущая тенденция к локальному запуску чат-ботов на ПК и смартфонах.
Сегодня (13 февраля) Nvidia представила владельцам ПК с ОС Windows новый способ создания собственных чат-ботов на базе ИИ с большой языковой моделью, которые подключаются к локально хранимому контенту.
Nvidia называет этот локальный чат LLM с RTX, и сейчас он доступен в демоверсии на веб-сайте компании. Как следует из названия, для запуска этого локального чат-бота на вашем компьютере должен быть графический процессор Nvidia GeForce RXT.
Загрузив и установив его, вы сможете подключить приложение Chat with RTX к локально хранящемуся контенту, например документам, файлам PDF, видео и т. д. Затем вы можете использовать этот локальный набор данных, чтобы задать вопросы чат-боту, чтобы он мог дать вам ответы без необходимости просматривать весь этот материал.
Кроме того, Chat with RTX позволяет найти информацию в некоторых видеороликах YouTube. Всё, что вам нужно сделать, это скопировать URL-адрес видео в приложение, а затем задавать вопросы о содержании видео. Чат с RTX должен дать вам ответы.