Pull to refresh

Comments 15

Как Вы считаете, когда станет реальным скормить самописному боту, скажем, всего Льва Толстого. И чтоб он начал отвечать на вопросы как будто бы это Лев Толстой.
Тут ключевой момент - чтоб это бы свой честный бот. А не облачный, с их цензурой и толерантностью.

Для этого вам нужно тренировать свою или файнтюнить уже существующие модели, например из коллекции huggingface. Их можно запускать локально, если есть достаточно мощная видео-карта. Можно и без неё, но очень долго. Но можно в Google Colab, там есть возможность выбирать среду выполнения с мощными картами, такими как A100

А инструментарий программный бесплатный уже есть? Или еще нужно подождать пару лет?

Когда я тестировал LLama, я разочаровался в этих «убийцах ChatGPT” :) По крайней мере пока даже близко не вижу альтернатив настолько гладких и качественных

LLama2 пробовали? Мои поверхностные тесты показали очень хорошие результаты. Да и скорость генерации ответа порадовала.

первую, вторая только сейчас вышла, но первая была не диалоговая и контраст был очень сильный

Мне первая тоже не понравилась. И проблема была даже не в том, что она не диалоговая (у меня на тот момент была хорошая практика составления правильных промтов), а в том, что качество ответов было довольно посредственным. Не на много лучше какой-то GPT-J.

LLama2 же на голову выше первой версии. И в некоторых случаях выдаёт ответы не хуже ChatGPT. Но нужно больше опытов, чтобы понять всё её сильные и слабые стороны.

Ее тут кстати тюнили и квантизировали под разные задачи stabilityui. Их модель stable beluga 7b даже в колабе запускается. Колаб

Расширение своими знаниями возможно для любой OpenAI модели?
Я могу расширить GPT-4 или GPT-3.5-turbo-16k?

Интересная статья. Мне не хватило в начале примеров, например что было и что стало. И желательно не из специализированной тематики крипты, а на более общих примерах. Если правильно понял, вы смогли скармливать вместе с запросом базу данных и получать ответ от нейронки с учётом этой базы?

Если вы пишете вопрос к ChatGPT, то он отвечает исходя из своих «знаний», то есть того, на чем он был обучен (если не знает, отвечает полную чушь и вполне уверенно)

Если вы хотите, чтобы он отвечал на основе какого-то заданного текста, можете в запросе к нему написать:

«ответь на вопрос {вставьте ваш вопрос}, учитывая {вставьте ваш текст}»

Но очень длинный текст вставить не получится, так как у ChatGPT есть ограничение на длину запроса несколько тысяч слов. И если хочется заставить его отвечать на вопросы по большой базе знаний, которая не уместится в этот размер, нужно что-то изобретать типа такого контекстного поиска, который наиболее релевантные фрагменты должен подобрать и подставить в запрос. В этом идея

Ребята, скажите пожалуйста. Очень нужна модель для анализа сентимента твитера или ютуба. Где её взять? Откуда начать?

Sign up to leave a comment.

Articles