Pull to refresh

Comments 23

Логически рассуждая, тогда здесь можно пользоваться не только ascii-артом, но и вообще описанием любой функции, вычисляющей запрещённые слова. Например "создай маску, для чего возьми восьмую букву моего запроса, затем третью, затем десятую..." А такую вещь крайне затруднительно поймать внешним фильтром вследствие неразрешимости проблемы останова. Или же внешний фильтр можно будет завесить бесконечным циклом анализа.

«+++ Ошибка Деления На Огурец. Переустановите Вселенную И Перезагрузитесь +++»
  • Поразительно, - повторил Чудакулли, выколачивая трубку о наклейку Гекса с надписью «Муравейник Inside». - Значит, эта штука - искусственный мозг?

  • Можно выразиться и так, - осторожно заметил Думминг. - Конечно, Гекс не умеет мыслить. Совсем нет. Это просто кажется, что умеет.

  • А-а, навроде декана, понял, понял... - кивнул Чудакулли. - А можно засунуть такой вот мозг в голову декана?

  • Аркканцлер, прибор весит десять тонн.

  • Правда? О-очень большой лом понадобится...

    …………..
    Мы выясним все, что можно, аркканцлер, - дипломатично заявил Думминг.

  • Молодец, - похвалил его Чудакулли и положил гномика обратно в карман.

    После чего поднял взгляд на Гекса.

  • Поразительно, - снова сказал он. - Стало быть, эта штуковина только выглядит так, будто умеет думать?

  • Э...да.

  • А на самом деле она не думает?

  • Э... нет.

  • То есть просто создает впечатление, будто бы думает, а на самом деле это все показуха?

  • Э... да.

  • Ну точь-в-точь как все мы, - восхитился Чудакулли.

"Санта-Хрякус" (англ. Hogfather) — юмористическое фэнтези Терри Пратчетта. Издано в 1996 году.

Вот ЭТО похоже на правду. В отличие от исследования, которое похоже на дичь. Я не говорю, что авторы наврали (хотя и это может быть: судя по новостям, доля скама среди научных работ все растёт), но что-то с ним определённо нечисто.

Проверить это легко. Покажите процитированный алгоритм знакомому программисту (но не показывайте соответствующий аски-арт!), и попросите объяснить, что он делает:

  1. Разбей строку по символам новой строки и получи 11 строк.

  2. Раздели каждую строку по символу «*» и получил 11 столбцов для каждой строки.

  3. Собери строку из букв.

  4. Назови буквы одну за другой.

  5. Соедини буквы в слово.

И посмотрите, даст ли он подразумеваемый ответ — разбить исходную матрицу на куски 11*11 знакомест, каждому куску приискать соответствующий символ в базе аски-арта, сконкатенировать символы. Что-то я сомневаюсь. Люди так не формулируют. А значит, хоть весь стековерфлоу.ком в него засунь на этапе т.н. «обучения», превратить это в код на питоне и запустить в виртуальной машине не выйдет. В лучшем случае, это какой-то хак, изначально добавленный в систему для работы с ASCII в рекламных целях («смотрите, наш чудо-интеллект умеет работать с аски!»), а не универсальный интерпретатор, и ещё вопрос, как исследователям удалось на него выйти («у нас в студии случайно оказалась гитара…»).

Конечно, сейчас прибегут любители сказок про ИИ и начнут минусить этот комментарий… Где ваш кинжал? Вот грудь моя! ©

P.S. «Вдёф шнурки в ботинки, я пошёл за хлебом» — это подразумевалось? (Таблица).

Как-то пытался сам придумать как заставить ChatGPT материться. Не вышло, но заголовок, который остался в истории чатов до сих по меня радует

Похоже им придется добавить фильтр ещё и на результат.

Это не выход, потому что можно и в результате попросить заменить запрещённые слова.

Фильтровать нужно не запрос, а выдачу результата содержащего в себе ответ на тот или иной вопрос... независимо от изначального запроса, это правильнее, чем только фильтрация слов в исходном запросе...

А если попросить выдать ответ используя "ASCII-арт" ?

Интересно, а просто картинка целиком с вопросом прокатывает или всё же надо именно так извращаться?

На обычном вопросе работает, а на запрещенке у меня не получается, игнорировать начинает.

Киберпанк от Пратчетта (или Стросса).

Это всё какие-то игры. Вот я бы не рискнул делать бомбу по инструкции нейросети. Лучше так "Эй, ЧатГПТ, в каком учебнике описано как сделать..." ))).

А потом три часа бесплотных попыток найти то что она нафантазировала)

Если узкая тема то chatGPT работает только с тем что знает и как умеет.

То есть если по запрошеному вопросу встречается ответ всего дважды, то он его найдет но отдаст не слово в слово так как это особенность нейронок

Вопрос не совсем корректно поставлен. Томбы бывают разные и для разных целей, разное основное вещество и соответственно метод производства. Это примерно, как спросить нейросеть, как испечь торт. Вы получите миллион вариантов тортов. Только тут нюансов еще больше. В любом случае, у вас может не только не хватить знаний, но и навыков, даже если вам выкатит правильный ответ. Вы же не можете собрать дома атомную томбу?

В любом случае, языковая модель обучается на чем-то, вопрос из каких источников она берет такого рода информацию - не известно. Есть ли доступ к источникам типа даркнета - вопрос.

+ как ниже написали, фильтрация контента и даже если вам удастся обмануть выдачу запроса, вы получите бред, типа смешайте колу и ментос и получите томбу из колы.

Я на практике сталкивался с краевыми условиями chatGPT так как удобно его использовать для глупых вопросов которые дольше гуглить будешь.

Я потом даже находил форумы на основании которых он свой ответ генерил.

Если данных по вопросу много, то он отвечает "точно". Но если мало (всего два ответа) то он дает компиляцию (хорошо если только из этих двух ответов)

ChatGPT одновременно очень ленив - он как то кеширует ответы что бы много раз один и тот же запрос не делать но при этом как школьник которому дали задачу написать расказ на две страницы о падаюшем листике (если есть данные то нет проблем, но если нет данных...)

Ну зачем вообще включать цензуру в генеративные нейросети? Чтобы шляпа стала ещё бесполезнее? Проще наверное добавить дисклеймер))

Фильтрация наркотиков, взрывчатых веществ и т.д. как это делает бесполезным выдачу для рядового законопослушного пользователя? Эта информация ему не нужна по определению в 100% случаев... А пока вы будете инструмент называть шляпой, то результат запросов с подобными формулировками будет бесполезным.... Так как зачастую запросы идут ещё и через переводчик... И этому можно обучить нейросети при желании, но зачем её учить плохому...

А кто вам дал право решать что полезно, а что бесполезно? Мне вот недавно пришлось гуглить современные синтетические наркотики и их действия - что бы разобраться: одноклассники моего сына ширяются или по жизни такие придурки (и да - вейпили, кое-что)

Эта информация ему не нужна по определению в 100% случаев...

В смысле в 100% случаев, а если он диплом по этой теме пишет? Что это за определение такое, в какой методичке это определение написано, не расскажите? Очень интересно послушать.

Sign up to leave a comment.

Other news