Comments 9
Влияние бота на состав сообщества изучали?
Я имею в виду не прямое влияние (те, кого бот забанит), а уход/приход людей под власть бота. Ну то есть кому нравится общаться на автоматически модерируемой площадке, а кому нет.
Особенно интересен был бы эксперимент с двумя аналогичными площадками, чтобы на одной люди знали, что их модерирует бот, а на другой думали бы, что решения принимает человек.
Интересная идея, такой бот надо, пожалуй, довольно долго обучать, чтобы он улавливал нюансы. То есть если человека скопом доводит чат шутками, а потом он в ответ огрызается, то вроде самый токсичный он (если прям сильно огрызается), но, с другой стороны, другие над ним подшучивали до этого состояния, просто так, чтобы бот не понял. Фактически можно ведь натренировать даже на такое?
В ~80% случаев нейросеть классифицирует тональность текста
то есть если я напишу 100 нейтральных сообщений, то вероятность того, что мои сообщения не сочтут токсичными 0.8¹⁰⁰ ≈ 0.0000000002?
и интересно насколько результат отличается от простого ранжирования ключевых слов
Хотелось бы увидеть определение "токсичности", хотя бы в виде выборки из обучающего датасета. А то щас под этим термином подразумевают кучу всего, вплоть до "он точки в конце предложений ставит, люди воспринимают это как пассивную агрессию".
AntiToxicBot — бот, распознающий токсичных пользователей в телеграм чатах. Немного об архитектуре нейросети бота.Часть 2