Переглядів 24
In this video, I will show you how to program your own chatbot in Python using a LOCAL large language model. To do this, we use an open source language model such as Llama 2 from Meta, which we download and start with the program LM Studio. I have linked my video on LM Studio in the video description below. The highlight of our program is that we use the Python library openai. But wait, we want to run the whole thing LOCALLY and without using an API. That's true, but what if we want to use a representative of the GPT family from OpenAI instead of the Llama language model later on? And that is precisely why we are building the program in such a way that you can switch to a local model by adding just a single line of code
В этом видео я покажу вам, как запрограммировать собственного чат-бота на Python, используя ЛОКАЛЬНУЮ модель большого языка. Для этого мы используем языковую модель с открытым исходным кодом, такую как Llama 2 от Meta, которую скачиваем и запускаем с помощью программы LM Studio. Я связал свое видео на LM Studio в описании видео ниже. Изюминкой нашей программы является то, что мы используем библиотеку Python openai. Но подождите, мы хотим запустить все это ЛОКАЛЬНО и без использования API. Это правда, но что, если мы захотим в дальнейшем использовать представителя семейства GPT от OpenAI вместо языковой модели Llama? И именно поэтому мы строим программу таким образом, чтобы вы могли переключиться на локальную модель, добавив всего одну строчку кода.