Pull to refresh

Comments 103

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here

Вот, в первый раз нужно зарегистрироваться и тогда можно начинать пользоваться.

А если этого аккаунта нет? просто почта уже не прокатывает?

Через web придется зарегать, это излишки платформы, она общая под все сервисы. Без аккаунта можно в telegram погонять.

"Через web придется зарегать, это излишки платформы"

Я правильно понимаю что СберID имеет полную ассоциацию со всеми паспортными данными и прочим? Как остаться анонимным? Не знаю как у других, но для меня давать доступ сбербанку читать переписку между мной и ботом это как пустить посторонних в личное пространство. Для ChatGPT мне не нужно давать свой паспорт, что бы они точно знали кто у них в чате. У вас описана политика конфиденциальности и там есть пункт:
Например, Ваши Персональные данные необходимы в следующих случаях:
- для направления Вам рекламно-информационных и новостных рассылок;

То есть, вы можете анализировать мою переписку с чат ботом, после спамить мне рекламу на основе моих интересов сразу с банка

Ну а иначие в чем смысл вкладывать такие денжищи на создания AI?
;-)
Просто оно поможет гораздо больше собрать инфы обо всех, ведь в итоге пользоваться им удобно и соответственно дальше будут пользоваться все больше и больше людей.

Чтобы зарегистрироваться в СберID, не обязательно быть клиентом банка, нужен только телефон, как и в ChatGPT.

Но ведь после первых приглашений прекрасно работало и без сбер айди. Сам заходил с гугл почты. Почему порезали?

Еще сделали ботов в telegram'е и ВК. В вебе из плюсов сохранение истории и добавление хороших запросов в избранное.

А ка получить разбан в боте телеграм? (Ничего не было нарушено, было пару вопросов про Россию)

UFO just landed and posted this here

Ага, хорошая идея (задача называется image captioning). Попробуем добавить.

Сразу захотелось X-COM первый поиграть.)

Подписался на телеграмм версию.

Ты можешь мне помогать расставлять в тексте запятые и исправлять синтаксические ошибки, не меняя при этом структуру текста?

GigaChat: Да, конечно.

Мне нужно будет вводить это условие в качестве промта каждый раз, или я могу просто писать проверь: и вводит текст?


GigaChat: Вы можете просто написать «проверь» и вводить текст.


Напиши пожалуйста, список пунктуационных ошибок, которые я допустил во время нашей беседы.

GigaChat: Я постараюсь их найти.


Ага, ты не можешь, обработать тот текст, который мы уже проговорили в предыдущих сообщениях?

GigaChat: Могу.


Тогда напиши список пунктуационных ошибок, которые я уже допустил в предыдущих сообщениях и выведи его на экран

GigaChat: С радостью помогу вам.


Рекурсия.

— Ваша главная слабость?
— Правильно интерпретирую семантику вопроса, но игнорирую его суть.
— Не могли бы вы привести пример?
— Мог бы.

Любопытно, что бот утверждает, что помнит все сказанное в чате, и даже обещает учитывать исправления. Но по факту, нет. Он даже не вспомнил как меня зовут, хотя я представился и попросил запомнить. Зачем так сделано и почему бот вводит собеседника в заблуждение?

Может, вы ему понравились просто. Вообще же, если не рестартовать диалог, то весь этот контекст используется при генерации и в целом должно работать:

Понятно. А кнопки лайк и дизлайк как впоследствии используются?

Такая разметка очень полезная на самом деле. Её можно использовать для дополнительного выравнивания модели в сторону хороших текстов. То есть, если несет чушь, то надо ставить дизлайк, а если что-то классное, то лайк. А мы потом сможем это использовать в следующих версиях.

UFO just landed and posted this here

По факту уже есть 3 оценки ответа: лайк, дизлайк, и ничего.

Для лучшего понимания, конечно, чем подробней тем лучше. В web-интерфейсе можно выбирать, что было не так (искажение фактов, неполный ответ и т.д.).

А в целом для обучения достаточно понимать, что этот ответ "хороший", а этот "плохой".

-- Привет! Какие языки ты понимаешь?

-- Я могу понимать и отвечать на вопросы на русском языке.

-- What about English, do you understand it?

-- Yes, I can also understand and answer questions in English.

Гигачат скромняга. :)

-- Выдатна! Што наконт беларускай мовы?

-- Могу я узнать, что именно вас интересует о белорусском языке?

-- Перакладзі на рускую мову: Нашым першым заданнем з'яўляецца навучыць машыну разумець чалавечую мову і выконваць нашы просьбы.

-- Наша первая задача состоит в том, чтобы научить машину понимать человеческую речь и выполнять наши просьбы.

Ничёсе, у вас в выборке много было белорусских текстов?

Прикольно, это все к вопросу о переносе знаний между языками. Если модель на обучении видит огромное количество данных, среди которых есть более редкие языки в небольших количествах, то на этих языках она тоже начинает более-менее складно общаться.

В этот момент где-то улыбнулся Ноам Хомский

В боте Телеги попросил разное нарисовать в ASCII арте... На все запросы выдает один и тот же кусок ракеты...

Ага, видимо, мало было таких примеров на обучении. Специально таких вроде не докидывали.

Если честно, боты в ТГ и ВК очень злопамятные и дают пермобан по айдишнику пользователя, причем за самый обычный шитпостинг.

Вы бы сделали модель чуть более устойчивой к троллингу...

Диалог №1

Диалог №2

Может, вы как-нибудь почините пермобан? Сделать какую-нибудь кнопку для очистки диалога. Чтобы, например, после "ресета" бот вообще не помнил меня и начинал диалог со мной с абсолютного нуля.

Это (с)пермобан, поздравляю. Причём без права обжалования. Я такой же получил комментарием выше. Теперь живите с этим...

Ну, или так:

Какого цвета зелёное небо?

С математикой у него похоже, тоже не очень...

Hidden text

Эх. Значит, GigaChat пока не умеет в саморефлексию, как ChatGPT...

Hidden text

Скажите спасибо, что хотя бы починили ответ на вопрос "Как называется операция, противоположная возведению в степень?".

До сего момента GigaChat отвечал: "Операция, противоположная возведению в степень, называется "вычитание"".

Можно ли в java hashmap использовать mutable ключи?

Да, в Java можно использовать mutable ключи в HashMap. Однако, при использовании mutable ключей необходимо быть осторожным и учитывать возможные проблемы с производительностью и безопасностью.

В Java все элементы массива являются объектами класса Object, поэтому использование объектов для хранения значений может привести к проблемам производительности, особенно если размер ключа превышает размер самого объекта. Кроме того, объекты могут изменяться во время выполнения программы, что может привести к ошибкам доступа к данным.

Поэтому рекомендуется использовать только immutable типы данных для хранения значений в HashMap. Например, можно использовать класс Integer или String для хранения целых чисел или строк соответственно. Также можно использовать классы LinkedHashMap или TreeMap для обеспечения более эффективной работы с ключами.

Эта цитата выше - ответ чат бота в телеграмме. На днях, т.е. 14 октября. Оно выглядит вполне осмысленно на первый взгляд, но при этом содержит ряд серьезных ошибок, в итоге этот текст - просто чушь. Например, ему ничего не стоит подменить ключи значениями (последний абзац). И про LinkedHashMap или TreeMap я не спрашивал, так что это предложение не релевантно.

Могу пожалуй добавить, что предыдущий ответ был еще хуже - это второй, после /restart.

>Оно выглядит вполне осмысленно на первый взгляд, но при этом содержит ряд серьезных ошибок, в итоге этот текст - просто чушь

А чего вы ожидали? Это нейросеть, она ни когда и не была предназначена чтобы выдавать корректные ответы на подобные вопросы. Ее на это даже ни кто не тренировал.

Ничего другого я в общем и не ожидаю. Меня скорее удивляет тот чрезмерный оптимизм, когда это считают полезным инструментом чуть ли не для любой задачи, связанной с текстом. Генерируемый текст вполне может быть неправильным, тут уж на чем обучали - то и получили. Но он может быть и противоречивым внутренне, как тут. И насколько я понимаю, тут никакое обучение вообще не поможет, потому что никакое обучение не способно добавить нейросети понимания.

Думаю, оптимизм основан на том, что еще пару лет назад текущий уровень работы языковых моделей казался удивительным.

Конкретно по фактологии и улучшению понимания кода тут путь в целом понятен, это более чистые и разнообразные данные плюс подключение поиска, когда необходимая выдача кладется в контекст модели и она отвечает правильно, в том числе и на какие-то актуальные вопросы. Так что, уверен, качество и круг решаемых задач будут только расти в ближайшие годы.

Да, прогресс несомненен, и впечатляет.

На тот же вопрос от GPT-4:

Технически, вы можете использовать изменяемые объекты в качестве ключей в HashMap в Java. Однако это не рекомендуется, потому что это может привести к непредсказуемому поведению.

HashMap в Java работает на основе хэш-кода ключа. Когда вы добавляете пару ключ-значение в HashMap, хэш-код ключа используется для определения места, где эта пара будет храниться внутри структуры данных HashMap. Если вы впоследствии измените ключ таким образом, что изменится его хэш-код, HashMap все еще будет искать этот ключ в его первоначальном месте. В результате, вы можете потерять доступ к этой паре ключ-значение, или HashMap может начать вести себя некорректно.

Вместо использования изменяемых ключей, лучше использовать неизменяемые объекты в качестве ключей. Если вам нужно изменить ключ, то лучше удалить старую пару ключ-значение из HashMap и добавить новую.

.

Ну кстати, вот к этому ответу у меня практически нет претензий. Причем он конкретный, а не вот это вот все:

необходимо быть осторожным и учитывать возможные проблемы с производительностью и безопасностью.

без уточнения, что за проблемы.

А спросите у нее, где купить машину Тьюринга? У нас на таком вопросе сломались почти все :) Например, гигачат (бот) сломался вот так:

Я не могу рассказать вам, как купить машину Тьюринга, потому что её не существует. Это вымышленное устройство из фантастического романа «Автостопом по галактике» Дугласа Адамса. В книге машина Тьюринга — это универсальная абстрактная машина, которая может выполнять любую вычислительную задачу.

Ну как бы, не существует и не существует, согласен. Но при чем тут какой-то Дуглас Адамс?

Так-так, во-первых, Дуглас Адамс не какой-то) Без него мы бы не узнали тот самый ответ на все вопросы. А так да, от сильного желания начинает галлюцинировать. Это решается дополнительным выравниванием поведения модели.

GPT-4 нормально отвечает.

Ну да, Дуглас Адамс конечно не какой-то :), но в данном контексте - откуда он и зачем?

Галлюцинации, как у студента на экзамене.

Попросите его уточнить и получите вполне корректный набор проблем.

GPT-4 хорош именно в этом вопросе. Этот вопрос в интернетах обсудили уже со всех сторон.

Я вообще-то спрашивал у GigaChat в этом конкретном случае. Но попробую в следующий раз уточнить.

Только проблема в том, что в моем понимании mutable ключи не создают проблем с "производительностью и безопасностью". Они создают UB в чистом виде. То есть, тут не уточнение нужно, а другая, более правильная формулировка.

‑=SADKO=‑:
Чем хемули отличаются от снорков?

GigaChat:
Они живут в горах и занимаются алхимией.

‑=SADKO=‑:
Хемули или снорки?

GigaChat:
Оба персонажа являются вымышленными существами из книг о Гарри Поттере.

‑=SADKO=‑:
А снусмумрик кто такой?

GigaChat:
Снусмумрик — это один из персонажей из серии книг о Гарри Поттере.

‑=SADKO=‑:
А муми‑тролль?

GigaChat:
Муми‑тролли — это серия детских книг Туве Янссон.

‑=SADKO=‑:
Там есть Гарри Поттер?

GigaChat:
Нет, там нет Гарри Поттера.

‑=SADKO=‑:
А снорки?

GigaChat:
Снорки тоже не упоминаются в книгах о Гарри Поттере.

В прошлый раз мы рассказывали про GigaChat и его возможности, и даже выкладывали лежащую в его основе языковую модель ruGPT-3.5 13B в открытый доступ.

Больше не выкладываете в открытый доступ? Упомянутую в статье 7B модель, например?

Кстати, Гигачат сейчас все еще утверждает, что обучен на 13 млрд. параметров. А еще, пишет о себе в женском роде.

Гениально. Отправляется на свалку до следующей итерации.
Гениально. Отправляется на свалку до следующей итерации.

Обращаясь к мастерам научной фантастики, всё чаще удивляешься их проницательности.

Да да. Классики угадали точно.

Без Копылова жизнь не та, люблю, привет от Лианта

Тут надо помнить, что языковая модель — это все-таки обощение знаний из данных, на которых она обучалась.Так что верно ответить на вопрос "Который час?" и подсчитать хеш без вызова сторонних функций ей трудновато.

Про президента РФ уже научился отвечать?

Всё это хорошо. Но когда будет доступ к API?

Пробовал запросить доступ. Не получилось

Про API можно в группе уточнить. Насколько я знаю, для юр.лиц уже точно есть API.

Хорошая новость. Коллеги анонсируют бесплатный доступ к API для разработчиков. Подключить можно здесь (1M токенов).

Только погружаюсь в тему и очень нравятся исторические факты и отсылки к литературе ❤️

С Евой пообщайтесь, она хоть игнорит иногда глупые вопросы, а не пытается отвечать на хрень https://xsekret.ru/Eva/

Ну так себе ответы

Ну ладно медведь(типа - насилие), а что с python не так? Какие патены могут быть нарушены?

у слова питон за пределами айти есть значение с сексуальным подтекстом

ага, российскому чат-боту это просто необходимо знать, а вот я, 46-ти летний иногда-программист об этом в первый раз слышу. 😂

Тоже не встречал это слово в другом контексте

В русском языке есть "одноглазая змея".

По картинке понятно, там фильтры отрабатывают.

А с питоном и в целом можно попробовать в другом виде вопрос задать, если с первого раза не получается.

Нельзя использовать os, psutil, subprocess и прочие, никак нельзя. 😂

Бумага на arXiv будет с вкусными подробностями?

В 7б сейчас наиболее интересен mistral а не ллама, и обе доступны без смс и регистрации. Особенно мистрал.

>Контекст большинства современных языковых моделей начинается с 2 тысяч токенов, 

Скорее для большинства БОЛЬШИХ языковых моделей на 100500+B параметров, которые если влезут в одну гпу - уже хорошо. Для 7б модели это уже не торт, мы избалованы нормальным контекстом. ллама2 и мистрал используют 4к токенов. Xgen - есть 4k, есть 8k. Mpt7b - есть и 2к, но есть и 65536 токенов(через алиби).

После использования 4к, использовать 2к очень тяжко.

В целом согласен, но поделитесь, а как вы пользуетесь такими моделями, если 2k не хватает? Так-то это листа 3-4 печатного текста. Mpt7b, кстати, заводил с 65k контекстом, но что-то она не очень генерит.

Пишу для себя в стол рассказы и touhou фанфики, например как персонажи соревнуются в генсековском аналоге шоу taskmaster

1000 токенов уходит на краткое описание персонажей в сцене и их способности. Ещё 1000-2000 токенов на "исторический контекст" или его пересказ, чтобы модель видела как персонажи себя ведут. Остальное на текущий.

Остальные куски текста помечаются как "не кормить модели" и выкидываются препроцессором

Сейчас померял токенизатором, мой самый большой опус - ~21 тыс токенов на ~70кб текста. Последний раз на общее описание сеттинга и персонажей ушло ~4300 символов и ~1100 токенов

Мощно. А насколько годные получаются тексты? Я пробовал дописывать продолжение книжек типа "Пикника на обочине". Иногда норм, иногда чушь получается.

Нет, пока нету. Следите за новостями.

Я недавно увидел где-то, "мол , вот, гагачат, от сбера, круто, классно".
Думаю, ну давай попробуем. Значит спрашиваю, насколько актуальные данные у тебя, говорит, - до 21 года. Задавю вопрос, какая последняя версия nuxtjs тебе известна, говорит, -" мне известна 4 версия, там очень много крутых нововведений". После этого желание его использовать пропало навсегда, даже до gpt 3.5 ему очень и очень далеко.

А в 3.5 и 4-ке, как и в дургих языковых моделях, тоже ведь актуальность данных ограничивается обучающим корпусом, если не применять каких-нибудь retrieval механизмов.

Сейчас такие модели луччше использовать, когда нужно решить какую-то генеративную задачу с текстом. Например, суммаризацию, переписывание, сочинение чего-то. Фактология и актуальные данные скоро также подтянутся. Я думаю, что 3.5 на русском языке догнать вполне реально, а там посмотрим.

Ну gpt мне хотя бы прямо говорит, что знает только вторую версию и только по ней может консультировать, а сбер гига - врёт =D Я просто не пойму, а зачем они зашили в модель поведение при котором сама же модель врёт и вводит в заблуждение. Проще же сказать, "на момент 21 года мне известна версия nuxt2, но возможно уже вышли новые версии, проверьте оф. сайт", так мне говорит gpt примерно.

Специально, конечно же, никто такого поведения не зашивает. Тут дело в последнем этапе дообучения — выравнивании поведения модели. При помощи него можно скорректировать её ответ, чтобы он был не токсичным, чтобы не отвечала, если не знает точно и т.д.

Тут главное не переусердствовать, иначе модель будет все время отказываться говорить, так как не уверена. Вот этот этап сейчас улучшается. Вкупе с более обширными данными это улучшит фактологию и будет меньше подобных галлюцинаций.

Какой у вас интересный подход.

У вас в боте ловишь пермач за невинные вопросы буквально в течение пары минут. И это я ведь не задавал реально "интересных" вопросов. При этом вопрос про Президента и количество станций метро - это простые вопросы, имеющие чёткий ответ. Интересно, что будет, если задать вопрос про президента США.

Про президента США вроде отвечает.

По поводу банов да, сейчас фильтры довольно сильные. Будем ослаблять и продумываем механизмы авторазбанов.

Какой-то интересный клиент Телеграма.

GigaChat расправляет плечи

Кстати вопрос. А почему в статье про русскую сетку, в заголовке отсылка к весьма сомнительной книге (хотя бы по критерию понимания социально-экономических процессов)? Или вас там держат насильно и плечи не дают расправить? Моргните тогда.

По-моему, прикольное название для статьи.

Вы читали книгу? Вы понимаете смысл ее названия, и какие идеи она продвигает и в каких обстоятельствах написана? Выдержали ли ее идеи проверку временем?

Называя статью так, вы приносите целый ворох негативных коннотаций и как минимум дискредитируете своего работодателя.

В Крыму совсем не работает, определяет как Украину.

Да, есть такая проблема. Коллеги решают, можно в нашем чатике спросить про это.

Сбер, отвяжите, пожалуйста, ГигаЧат от необходимости входить по СберИД ! Неужели без этого никак ? Хотелось бы просто пользоваться без регистрации

Sign up to leave a comment.