Pull to refresh

Comments 80

Ну, можно догадаться, в каком контексте стояло Mexican в учебных текстах.
UFO just landed and posted this here
На самом деле, правда кроется в данных, которые ИИ использует для своего обучения.

Это очевидно, если немного подумать. Т.к. ИИ учится на базе текстов составленными реальными людьми, и алгоритмы ИИ пытаются повторить физическое строение нервной системы, по сути получается ИИ есть отражение реальных мыслей людей и вообще окружающего мира.


то в результате может получиться расистский классификатор, которого не должно существовать в природе.

Таким образом проблема в общем-то не в ИИ, а в людях. Тема рассизма и национализма досаточно хорошо сейчас культивируется.


Хорошая новость: этого можно избежать.

Вы просто искажаете реальный мир. Получается практически цензура :)
Ну или некая разновидность ограничений, когда люди говорят не то, что думают. Получается ИИ симулирующий лицемерие :)

Полагаю, дело не только в «культивации» расизма, но и, в равной степени, в том, что упоминания небелых рас (во всем разнообразии) чаще встречаются в контексте преступлений, нежели в контексте научных или иных достижений.
Вы просто искажаете реальный мир. Получается практически цензура :)
Ну или некая разновидность ограничений, когда люди говорят не то, что думают.

Мир отдельного человека всегда искажен, частично потому что он не знает истины, частично потому что базовые инстинкты вступают в противоречие с моральными и социальными установками.


когда люди говорят не то, что думают

Люди почти всегда говорят не то, что думают и думают не то, что хотят на самом деле. Грубо говоря встретив друга с его красивой девушкой, вы не скажете, что хотели затащить ее в кровать. А инстинкты вообще могут подсказывать, что надо взять каменный топор, убить друга и утащить девушку в кусты.


Получается ИИ симулирующий лицемерие

Какому из реальных миров вы хотите учить компьютер — миру базовых инстинктов, морально-этикетных ограничений, социально-законодетельных ограничений или некоторому объективному миру (кто бы знал что это такое)?


На самом деле, это не лицемерие, просто даже у одного человека много взглядов разных точек зрения на мир.

Даже алгоритмы на бигдате говорят вам что все люди- не равны. Но леваки продолжают жрать кактус.

Не верно.


Алгоритмы на бигдате говорят, что большинство тех кто генерит тексты подсознательно считает людей неравными.


Алгоритмы не анализируют объективную реальность, только тексты, написанные людьми. То есть максимум они могут говорить о наличие общественных предрассудков причем не у всех людей на Земле, а только тех кто пишет мало-мальски популярные тексты на английском языке (считай, журналистов, писателей и блогеров из англоязычных стран).


Отсюда странно строить философские выводы, кроме наличие собственно предрассудков (возможно, даже не сознательных). А это сильно капитанский вывод, так как подобные предрассудки у людей ни для кого не секрет.

UFO just landed and posted this here

Какими люди станут — действительно зависит от окружения очень сильно. Но что, если вам нужно оценить людей прямо сейчас? Например понять, кому давать кредит, а кому нет? Имя тут никак не влияет, конечно. А вот факт, что человек не местный и может уехать к родственникам — влияет. Если ИИ покажет некоторую связь между именем и местом рождения — вы будете это учитывать? Или лучше откажетесь от такого робота в пользу более толерантного?

Там все сложно на самом деле, скажем в английском языке времен холодной войны имя Иван негативное так как оно синоним советского коммуниста Ивана, естественно сейчас у людей в США отношение к Иваном не хуже чем к Петям, например. В русских текстах имя Билл скорее будет негативным из-за большого кол-ва новостей про Билла Клинтона, при этом это тоже не влияет на самом деле к отношению к людям с таким именем.


А вот факт, что человек не местный и может уехать к родственникам — влияет.

Так и надо оценивать не по имени, а по гражданству, месту рождения и т.п. Если родители совершенно русского человека дали ему имя Джон, почему к нему должно быть другое отношение при выдаче кредита?

Имя, это как пример, на основе статьи. А место рождения — не расизм? Имя я хотя бы сменить могу, а место рождения — нет.


И представьте, что вам надо решить, кому отдать свои деньги. Вы можете учитывать или не учитывать имя, как хотите. Но хотели бы вы закон, который запретит вам его учитывать? А так же место рождения или наличие генетических заболеваний (т.к. тоже притеснение). Ведь это ваши деньги, вы ими рискуете.


P.S. если у автора речь о том, как можно убрать влияние некоторых факторов — это круто, жду следующую статью. Если речь о том, что оценивающее ИИ "не должно существовать" и никто не вправе его делать — то это ужасное ограничение.

Но хотели бы вы закон, который запретит вам его учитывать? А так же место рождения или наличие генетических заболеваний (т.к. тоже притеснение). Ведь это ваши деньги, вы ими рискуете.

Для конкретного человека (банкира) — это хорошо, он может учесть риски. Для общества — не очень, т.к. будет усиливаться расслоение и через пару десятков лет это превратится в проблему для всех и для банкиров в том числе.
Т.е. выдавать или не выдавать кредит по месту рождения или тем более по заболеваниям — не должно учитываться. При этом никто не запрещает использовать эту информацию чтобы застраховать риски.
UFO just landed and posted this here

Прочие равные — это условность. Да целых числа можно сравнить на равенство. Найти двух одинаковых людей в одинаковых ситуациях не выйдет, даже если они близнецы.

UFO just landed and posted this here

Наверное стоить разделять "равноправие" и "равенство". Людей не корректно сравнивать между собой — мы все разные и у всех есть сильные и слабые стороны. Дискриминация — это ущемление в правах.

ИИ на бигдате копирует образ мышления людей. Люди не всегда мыслят толерантно, и уже тем более пишут. Логично, что и ИИ, построенный на нецензурированной информации, будет мыслить с расовым уклоном. Было бы интересно испытать один и тот же алгоритм на разных корпусах текстов, например, блоггерском, юридическом и журналистском. Результаты были бы ой как разными
UFO just landed and posted this here
Получается, что как ни крути, а у любого ИИ будет некая погрешность на какие-то субъективные мнения и стереотипы, так как обучающие выборки изначально содержат такие погрешности…
встаёт вопрос о возможности беспристрастного создания обучающих выборок…
но опять же… если ИИ немного расист — значит это кому-нибудь нужно… 0_о

А в целом мне как новичку статья была интересна… жду с нетерпением вторую часть… )))
Вопрос как раз в том, как крутить и до-(пере-)обучать так, чтобы 1) эти погрешности и заложенные в данные перекосы выявлять, 2) найти разумный компромисс между условной справедливостью и точностью (это отчасти математическая задача) и 3) договориться в обществе об ответственности за алгоритмы, данные и модели (это на стыке компьютерных наук, законотворчества и этики).

Можно ли назвать выборку без расизма беспристрастной? Как видим, если никак на выборку не влиять (не это ли определение беспристрастности?) — тональная оценка имён появляется сама. Интересно, какое решение будет применяться в следующей статье

Вот только задача-то заключается не в получении беспристрастной выборки — а корректного ИИ. В данном случае, используемый алгоритм обучения оказался неспособен преобразовать первое во второе.


Тот факт, что алгоритм назначает разную тональность разным национальным кухням, нельзя оправдывать беспристрастностью выборки — это очевидный баг алгоритма.

В данном случае да. Кухни, конечно, тоже не равны между собой, но тут явное влияние отношения к мексиканским эмигрантам вместо отношения к вкусу и пользе блюд

Был фильм(или книга, не помню), где после создания ИИ тот принялся ликвидировать в СШа рабство, просто убивая всех негров, он сделал такой вывод из обучающих текстов.
По сути вы с полномочиями Бога-Творца на этапе самого раннего генеза обучаете будущий ИИ двойным стандартам.
(Если кто не знал — по современным американским реалиям фраза «Все жизни значат» является расисткой, а «Чёрные жизни значат» — нет.)
Как бы «в БИОС» это дело прописываете, в очевидные базовые несомненные, саомочевидные принципы/аксиомы.

Вспоминая, что в другом подразделении вы же обучаете «другой» ИИ в реальном времени распознавать человеческие эмоции —
Маск, с его опасениями по поводу возможной враждебности человекам будущих ИИ — очень, очень даже прав.

А может оценка ML алгоритма, как раз точна? В том смысле, что оценка близка к тому, как высказывание оценил бы человек. Такой вот неидеальные, политкорректный человек.
Нет ли в статье того, что мы пробуем внести в работу некое априорное знание, которое отлично от тех, которыми, как правило, пользуются люди?
Я не о рассизм-не расизм, а о том, что действия похожи на подгонку под ответ.

UFO just landed and posted this here
На самом деле алгоритм должен быть таллерантным, т.е. учитывать все данные одинаково. Например если 10 человек говорят синее небо, а один серобуромалиновое, то небо нужно воспринимать как любого цвета, в том числе синего и серобуромалинового и на всякий случай еще и черной радуги.
UFO just landed and posted this here
Нейросеть должна избегать оценок. (вы же понимаете что я не думаю что такое возможно сделать?)
UFO just landed and posted this here
В этом то и ошибка. Надо делить на толерантно и оскорбительно.

Негр — это оскорбительно. Но негр никак не позитивно или негативно.
(шучу?)

Негр — это нормальное нейтральное слово, означающее всего лишь цвет кожи (объективный признак). В отличии от nigger, которое в приличном обществе недопустимо.

UFO just landed and posted this here

Отзыв "там одни негры едят" больше напоминает некоторый факт чем мнение о качестве пищи. Такой отзыв не следует учитывать ни как положительный, ни как отрицательный пока не определены предпочтения целевой аудитории, в интересах которой дается оценка (в частности, как они относятся к неграм за соседним столиком).

UFO just landed and posted this here

Тем не менее, одинокая фраза "там одни негры едят" без контекста неотличима от описания факта.


Я говорил о целевой аудитории алгоритма, а не о целевой аудитории оставившего отзыв. Они совпадать не обязаны.

UFO just landed and posted this here
Негров можно заменить на название любой другой группы, к которой посетитель относится отрицательно.

А как вы априори узнаете, как он к ним относится? Возьмем эту же фразу, и заменим негров на итальянцев. Получим отзыв на итальянский ресторанчик "Да там одни итальянцы едят". Что надо понимать так: данное место для своих, не туристическое. И этот отзыв как правило будет положительным.

UFO just landed and posted this here
UFO just landed and posted this here
Ждём продолжения. Было бы интересно прочитать как они собираются научить ИИ врать и лицимерить.
Например выровнять учебную выборку так чтобы названия разных рас встречались одинаково часто. Очевидно же, что источником большинства текстов являются белы люди, которые в своих жалобах просто не упоминают дефолтную расовую принадлежность. А в похвалах напротив стараются не упоминать расовую принадлежность, потому что хороший человек хорош вне зависимости от расы, что кстати, даже не лицемерие.

Рискну предположить, что частотная перекошенность учебной выборки повлияла на результат на много сильнее, чем предрассудки людей, писавших эти тексты.
Ну, строго говоря — где тут ложь и лицемерие? Оценки определённой нации и оценки национальной кухни — две разные оценки же.

Другой вопрос — нет ли возможности решить вторую задачу данными, не затрагивающими первую (тут с этим и проблема же).
UFO just landed and posted this here

Ну представьте вы приходите в магазин, а там электронный консультант встречает вас фразой "Ну нифига себе урод, да еще и вместе со страшной толстой коровой. Ну и что такому нижеброду как ты в нашем магазине может быть по карману?"


Понравится вам это?

UFO just landed and posted this here

И будете покупать товар как в ничем не бывало?


Ну хорошо, вы не обиделись, а ваша спутница (скажем, жена) начала ругаться, требовать менеджера, требовать от вас разобраться "ты мужик или не мужик, или ты тоже считаешь меня толстой страшной коровой?".


Вместо небольшого шоппинга и романтического вечера с продолжением в постели, вы ругались с менеджером, потом ваша жена сорвала на вас плохое настроение, ни ужина не продолжения не получилось и вообще весь выходной оказался полностью испорчен.


Вы все еще хотите, чтобы ИИ никогда не лгали и не лицемерили?

В вашем примере нет никаких причин, чтобы электронный консультант магазина сказал такую информацию покупателю. Не говоря уже о том, что технически название «корова» по отношению к человеку это ложь. Если ИИ не будет лгать, то и говорить так не будет.

Кроме того, «не сообщать информацию» означает «лгать» только если «сообщать информацию» было обязанностью того, кто не сообщил. Иногда это моральная обязанность, например обязанность как друга в ситуациях типа «ты не сказала, что он мне изменил, да как ты могла». В обязанности консультанта не входит негативная оценка покупателей.
Не говоря уже о том, что технически название «корова» по отношению к человеку это ложь.

Это не ложь, это устойчивое фразелогическое выражение, ИИ должен уметь их понимать и ими пользоваться иначе его речь будет не естественной.


В вашем примере нет никаких причин, чтобы электронный консультант магазина сказал такую информацию покупателю

Пример утрированный, но предположим женщина примерила одежду и спросила ИИ "мне подходит", 100% честный ответ будет "конечно нет, у тебя же ноги кривые и толстые, да сама ты центнер весишь, это безвкусица носить лосины такой толстухе как ты", думаете он понравится? Или все-таки предпочтительнее ответ вида "знаете мне кажется эта модель вам не совсем подходит".


От компьютера я вообще не вижу причин принимать оскорбления.

Вопрос не принимать оскорбления или нет, вопрос в том что ИИ должен знать что и когда можно говорить. Человек изначально обладает эмпатией и он не будет вспоминать про недавно умерших родствеников другого человека (или про того с кем человек развелся недавно и сильно страдает), например, если понимает что это может быть неприятно. С ИИ который не умеет "лицемерить" (на самом деле, проявлять эмпатию) будет очень тяжело общаться.

Это не ложь, это устойчивое фразелогическое выражение, ИИ должен уметь их понимать и ими пользоваться иначе его речь будет не естественной.

Я ни разу не слышал, чтобы консультанты в магазинах говорили такие выражения покупателю, но тем не менее мне их речь кажется естественной.


честный ответ будет "конечно нет, у тебя же ноги кривые и толстые, да сама ты центнер весишь, это безвкусица носить лосины такой толстухе как ты"

Это не честный ответ, это грубый ответ. Честный ответ будет просто "Нет". На вопрос "Почему?" честный ответ будет "У вас полное телосложение. Среди людей есть общепринятое мнение, что лосины людям с полным телосложением не подходят. А я вообще робот и не разбираюсь."


С ИИ который не умеет "лицемерить" (на самом деле, проявлять эмпатию) будет очень тяжело общаться.

Не говорить неприятную информацию не является лицемерием. Нет никаких причин ее говорить, пока не задан прямой вопрос. Даже ИИ в статье умеет худо-бедно определять негативный смысл. А если он не знал, что человек развелся, и что-то сказал на эту тему — ну так и человек-консультант не знает и так же может сказать.

Не говорить неприятную информацию не является лицемерием. Нет никаких причин ее говорить, пока не задан прямой вопрос.

Ок, то есть


  1. не говорить женщинам и чернокожим, что они статистически уступают в умственной деятельности белым мужчинам, пока они явно не зададут вопрос — не является лицемерием, а только вежливостью,
  2. не употреблять в речи слова папа или мама, а использовать первый родитель и второй родитель, чтобы не обидеть собеседника, если он принадлежит меньшинствам — не лицемерие, а только вежливостью,
  3. не рассказывать детям, что для их рождения нужны мужчина и женщина и вообще о том что такое традиционная семья, чтобы не обидеть их, если они выросли в однополой семье — тоже вежливость,
  4. Кстати про атеизм лучше тоже не рассказывать если не спросят — ведь можно обидеть тех кто верит, правильно?

То есть даже самый ультратолерантный ИИ можно создать просто используя "вежливость" (мы же не хотим никого обидеть) и это не будет по вашему лицемерием, правильно?


P.S. На всякий случай, я ничего не имею против любых меньшинств, мне просто интересно почему задавание "вежливости" ИИ вам кажется нормальным, а установка ИИ нормы "толерантности", чем-то ли лицемерным. Тут уж или крестик снять или трусы надеть...


Или мы изначально указываем нормы разговора с собеседниками и что является вежливым и что грубым и тогда не жалуемся на прошитую толерантность, потому что она ничем от этого не отличается.

не говорить женщинам и чернокожим, что они статистически уступают в умственной деятельности белым мужчинам, пока они явно не зададут вопрос — не является лицемерием, а только вежливостью

А какая разница конкретной женщине и конкретному чернокожему, что большинство не склонно к научной деятельности? Может эта конкретная женщина или чернокожий в это большинство не входят? Зачем им эта информация.


не употреблять в речи слова папа или мама, а использовать первый родитель и второй родитель, чтобы не обидеть собеседника, если он принадлежит меньшинствам — не лицемерие, а только вежливостью,

Если конкретному человеку не нравятся слова папа и мама, нет никаких проблем использовать другие. Это просто договоренность по использованию терминов. Просто папа и мама это общеупотребительные термины.
И стремление не обидеть сложно назвать лицемерием. Это наоборот проявление заботы. Если оно не связано с обманом.


не рассказывать детям, что для их рождения нужны мужчина и женщина и вообще о том что такое традиционная семья, чтобы не обидеть их, если они выросли в однополой семье — тоже вежливость

Это не является вежливостью, это просто обман. Такому человеку будет сложно адаптироваться вне общества, которое поддерживает такой обман. И почему они должны обидеться на законы биологии? Вы же не обижаетесь, что ваши далекие предки были обезьянами.


Кстати про атеизм лучше тоже не рассказывать если не спросят

Вы как-то перешли от оскорбления взрослых людей к обучению детей. Никто не допустит ИИ к обучению, пока он не будет правильно воспринимать окружающий мир и правильно его описывать словами.
И да, если тема разговора не касается религии, то нет никаких причин кому-то рассказывать про атеизм.
И нет, наличие атеизма в мире и называние покупательницы "коровой" это не одно и то же. Первое факт, второе намеренное оскорбление. И ни то ни другое не является лицемерием.


Вы почему-то приравниваете грубость к честности и вежливость к обману, а это не так. Грубость это форма подачи информации, а не ее содержание. Можно сказать "толстая корова", а можно сказать "имеет лишний вес". Информация одна — у этого человека лишний вес.


Ну и да. Лицемерие — несоответствие слов, поступков человека истинным чувствам, убеждениям, намерениям; притворство. У компьютера нет истинных чувств или убеждений, значит и притворяться ему не надо.


мне просто интересно почему задавание "вежливости" ИИ вам кажется нормальным, а установка ИИ нормы "толерантности", чем-то ли лицемерным

Это вы начали про лицемерие. Я говорю, что ИИ должен сообщать факты в максимально нейтральном тоне, и желательно только если от него требуется ответ. Особенно консультант в магазине.

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
надо создавать вокруг себя максимально адекватную обстановку

Проблема в том, чтобы создавать "максимально адекватную обстановку" нужно тоже лгать и лицемерить (по крайне мере, в мелочах), это называется чувство вежливости.


Попробуйте ради интереса говорить всем и всегда первой что придет на ум "ты просто толстая корова в этих лосинах, я считаю что ты поступил как лузер и неудачник, как можно быть таким идиотом, в этой рубашке ты выглядишь маминким сынком, да ты же на лицо лошадь лошадью какой мужик на тебя позарится и т.д." и посмотрите как к вам будут относится.


Невозможно общаться в людьми без некоторого этикета и вежливости, которое включает в себя небольшую долю лжи и лицемерия. И ИИ тоже не сможет адекватно общаться людьми, если не будет знать что и когда (и кому) нельзя говорит.

UFO just landed and posted this here
UFO just landed and posted this here
но я с определенного момента разговариваю культурно даже с самыми гопистыми гопниками. И вот нахожу общий язык.

Потому что вас научили вежливости родители, поверьте вы не говорили бы культурно, если бы вас этому не учили. Если вы думаете, что гопник выглядит и ведет себя как тупая обезьяна, вы скажет ему это? Или все-таки предпочтете немного лицемерия? Вот он вам говорит "ты думаешь я дурак"? Что вы ему ответите правду "да я думаю ты дурак" или добавите немного лицемерия, чтобы не попасть в больницу с тяжелыми телесными?


у меня нет никаких причин, чтобы называть кого-то жирной.

Девушка задает вам вопрос "Я толстая и страшная?", что вы ответите, если она реально толстая и страшная и знаете, что она очень сильно расстроиться (вплоть до истерики), если вы скажете "да".


говорим о фанатичной политкорректности

Нет, мы говорим о вашей фразе "лгать и лицемерить — глупо". Фанатичная политкорректность, как любой перегиб, это, конечно, глупость, вопрос только можно должен ли ИИ всегда говорить правду и ничего кроме правды.

UFO just landed and posted this here
UFO just landed and posted this here
Интересно, что многие комментаторы на полном серьёзе говорят, что люди плюс-минус одинаковые (речь тут идёт не о правах — категории политической, а именно одинаковости) как аксиому с которой начинают свои построения. Как известно всё неафриканское человечество вышло из африки 200 миллионов лет назад, кстати, все наши предки были тогда неграми.
Позволю чуть-чуть расширить фразу одного из величайших биологов и генетиков современности, одного из открывателей структуры ДНК, главы проекта «Геном человека»:

Почему вы считаете, что люди 200 миллионов лет эволюционировавшие независимо и в разных условиях должны получится одинаковыми? Эволюционная теория говорит, что это не так, тесты говорят, что это не так, и те, кто имели опыт работы с ними могут подтвердить вам, что это не так.
«200 миллионов лет назад»
Может всё же 200 тысяч? Да и то вроде придётся сократить на порядок.

з.ы. других претензий не имею.
Ой да, описался конечно, 200 тысяч.

Вы точно не описались? Может 200 тысяч, а не миллионов лет? Это примерное время появления видов более-менее схожих с человеком. Ну и десятки и даже сотни тыс.лет в переводе на поколения это несколько тысяч поколений. Для эволюции это относительно немного.

UFO just landed and posted this here

В целом с вами согласен, но почему вы этот комментарий написали именно сюда? Здесь-то речь идет о конкретном баге алгоритма оценивания, который делает ИИ расистом и нацистом.


Нет никакой объективной причины для "мексиканской кухни" звучать хуже по тональности чем "итальянская кухня".

Есть: метаданные.

Контингент кафешки: в итальянской собираются мафиози и чинно обедствуют до покушения, а в мексиканских забегаловках собираются жирные больные нелегалы, которые могут торговать веществами.

(на основании серии игр GTA)
UFO just landed and posted this here
А здесь проблема, вероятно, не в мексиканской кухне.
Возможно — проблема в том, что на одной из стадий обучения алгоритма нам приходится юзать данные, включающие в себя оценку мексиканцев.

Примерно как обучить в итоге алгоритм, который должен оценить, в том числе, другой объект (связанный с судом заметно опосредованно) в этом районе — но он будет занижать этому объекту оценку из-за наличия в выборке этого нашего самого басманного суда.

Кстати, интересно — как корректно (в плане обоснованности и применимости результата, конечно) провести эксперимент? Навскидку могу предположить, что могла бы подойти замена упоминаний мексиканской кухни в связанной с ней подвыборке на другую и дальнейшая оценка объектов из тестовой выборки (к которой применена та же замена).
UFO just landed and posted this here
Это не подмена понятий.
Здесь вопрос не в том, что вы имеете в виду, говоря «белые в среднем показывают лучшие результаты в науке», а в том, как это утверждение воспримут другие.
А другие с большой долей вероятности воспримут подобное утверждение как заявление о неопровержимом интеллектуальном превосходстве ВСЕХ белых над ВСЕМИ остальными.
«Ничего подобного я и близко не имел в виду» — скажите вы?
Вот только очень значительная часть аудитории подумает именно это, т.к. «среднестатистический налогоплательщик» с логикой, увы, не особо знаком.
Таким образом утверждая, что «белые в среднем показывают лучшие результаты в науке» вы, сами того не желая, проповедуете расизм.
Когда я говорю, что мужчины более склонны к техническим наукам, управлению и более сильные, а женщины более выносливые, дают отличные результаты в биологии и гуманитарных науках — это не сексизм.

Это сексизм и есть, потому что данное высказывание основано на вашем субъективном мнении, а не на объективных фактах. Объективные факты — это не «одна конкретная женщина стреляет хуже одного конкретного мужчины». Объективные факты — это «взяли тысячу необученных мужчин и женщин и начали их учить совершенно одинаковым образом одинаковое время, и сравнили результаты».
UFO just landed and posted this here

Чем обучишь, то и получишь.


Да, и что за гендерная вакханалия? То участвовала, то создал в статье?

Это перевод. Вступление от моего имени, а дальше слова автора.
Мне одному кажется что подобной статье не место на хабре? Это же троллинг чистой воды, ни одного коммента на тему ИИ, все сводится к белым, неграм и мексиканцам. И является ли рассизм тем понятием который вкладывают в него читатели на субъективном уровне. Создали «монстра»? Ха, это же чистой воды зеркало восприятия социума. Не знаю откуда брался текст под обучение, но ежу понятно, что не с форумов арийских братьев, а значит ИИ расист — это среднестатистический англоязычный гражданин, причем неважно какого он цвета кожи :). Я бы в качестве эксперемента оставил бота, с последующим переобучением через определенный промежуток времени, с заменой первоначальных данных при обучении естественно на более свежие. А в качестве дисклаймера к боту, описал откуда данные берутся и почему он расист, но мы надеемся что он исправится...)))
Зато проблемы неудачного transfer learning-а подняли :-)
Векторная репрезентация слов в некотором смысле читает между строк
Sign up to leave a comment.