Comments 27
Вероятно, это только начало большой проблемы. Она будет нарастать по мере того, как ИИ будет становиться всё умнее, а авторы таких работ научатся более эффективно и аккуратно работать с БЯМ. А что делать с добросовестными авторами, которые сделали качественную научную работу, а потом использовали БЯМ, чтобы сэкономить время на лишней писанине? Ох, сложно всё это будет отслеживать и контролировать...
БЯМ может прекрасные человеческие тексты генерировать, но не всегда, поэтому нужно тщательно проверять и рецензировать текст не наличии использование ИИ, а на логику и стилистику в тексте, цифры должны быть взяты не с потолка, научная работа должна быть проведена в реальности, а не нарисована.
Вопрос в том использовали ИИ чтобы написать работу "с нуля" или просто для того чтобы "оформить" уже написанное.
Ну то есть для второго я ChatGPT тоже уже вовсю использую.
Для работы с нуля - прекрасное начало чтобы обсудить с БЭМ идею и накидать черновик. Знаю людей, которым сложно начать что-то писать, а БЭМ как раз решает для них эту проблему.
Мы наверное немного по разному понимаем "с нуля".
То есть вы можете сейчас сказать ChatGPT "напиши мне текст на тему ХY" и он вам что-то там напишет. Часто даже что-то адекватное. Или вы ему даёте черновик или просто список пунктов и он вам это "отредактирует".
И в первом случае получается что ChatGPT практически делает за вас всю работу. И вам максимум надо проверить. И даже это похоже не все делают.
Но пока что ChatGPT все еще вряд-ли напишет нормальную научную статью. Он просто статью про простые вещи напишет специфично. То есть результат неудовлетворительный.
Поэтому, как мне кажется, все равно, сам человек писал или нет - проверять надо качество статьи, а не сколько человеко-часов потрачено на набивание текста в ворде
Думаю, однажды придет к тому, что один из авторов напишет научную статью не специализированным, а обычным общим лексиконом, возможно с сарказмом и со своей изюминкой, но при этом содержательным и понятным, и большинство читателей и критиков найдёт его подход гениальным))
А что делать с добросовестными авторами, которые сделали качественную научную работу, а потом использовали БЯМ, чтобы сэкономить время на лишней писанине?
Зачем добросовестному автору генерировать «лишнюю писанину»? Лишняя? Не пиши!
Она для сути статьи лишняя, а для комитета по грантам - совсем не лишняя
Если комитет по грантам по каким-то своим соображениям выдвигает требование, чтобы в работе обязательно был какой-нибудь раздел или обязательно раскрывалась какая-то тема, добросовестный автор выполнит это требование добросовестно, а не будет генерировать бессмыслицу.
Короче, не верю я, что такое бывает — «качественная научная работа» со вставками, которые автор не писал и даже не читал.
Проблема не в использовании нейросети для написания же, а именно в закрытой системе работы этих "рецензируемых" изданий, которые мотивированы в основном финансовой выгодой, а также по факту не несут никакой ответственности за свои косяки.
Похоже недалек тот час, когда БЯМ станут обучаться исключительно на написанных ими же текстах, круг замкнется. Учитывая склонность к галлюцинациям, это может привести к глобальной проблеме накопления весов ошибки и глобальной фальсификации всех знаний человечества :-)
То, что копипастят тупо, даже не вычитывая написанное - фу такими быть, безусловно.
Но взять отдельные сгенерированные куски, а не с нуля самому набивать почему нет? В каждой статье делаются всякие Abstract и прочие вводные. GPTшки довольно хорошо экономят время, делая summary по написанной статье...
А что вы хотели, платят же за количество статей. А если делать вдумчиво, то много не получится. Так что информационного мусора будет всё больше и следующие БЯМы будут обучаться на нём. А при такой-то обратной связи результат предсказуем.
Странно, что это пропустили. Т.е. статью после подачи читает минимум 5 человек: рецензенты (2 шт), куратор, наборщик/корректор и выпускающий редактор. Там какая-то системная ошибка и дело уже не в БЯМ, а в как писали выше отчётности по количеству.
Надо было в текст вставить "пасхалки", как будто он тоже набран ИИ. 😅
Мне другое интересно, что делать с верификацией научных статей? Как разобраться, там реальные результаты или галюцинации сетки? И ранее были претензии к верифицируемости, а сейчас проблема, видимо, выйдет на новый уровень.
Копирование текста из ChatGPT нашли в рецензируемых научных журналах