Author

Topic: Чат-бот от Microsoft за день стал расистом (Read 1647 times)

member
Activity: 116
Merit: 10
Если честно, то немного смешно и жаль майкрософт! Что потом будет?
full member
Activity: 378
Merit: 100
я не понимаю, что обозлились на бедных людей!, ну и пусть чернокожие! все же люди! надо выгонять террористов !!!
newbie
Activity: 13
Merit: 0
Сам бы робот такого бы не придумал, значит так думают люди, и он начал писать такие сообщения исходя от того на какие темы общались перед этим и что говорили. а он лишь поддерживал разговор
Расизм это плохо, еще хуже когда искусственный интеллект ему обучается
full member
Activity: 490
Merit: 100
Неудевлен, так как в штатах это очень сильно развито.
sr. member
Activity: 353
Merit: 250
Get your share of the future
Сам бы робот такого бы не придумал, значит так думают люди, и он начал писать такие сообщения исходя от того на какие темы общались перед этим и что говорили. а он лишь поддерживал разговор
member
Activity: 158
Merit: 10
Правый бот  Grin Grin
Мне кажется такой бот отлично показал мысли людей )
full member
Activity: 179
Merit: 106
С рассизмом нужно бороться на корню: нет негров- нет расизма!  Smiley
Очень даже тонко, Microsoft совсем не причём к этому всему Smiley)
legendary
Activity: 1540
Merit: 1004
GIGZI - INDEPENDENT WEALTH MANAGEMENT
Так оно, зато теперь разработчики наверное предпочтут не придавать широкой огласке свои планы. Если только это не было изначальной задумкой. Grin
да майкам не привыкать в последнее время регулярно попадать в какие-то скверные истории, что-то перестали они на репутацию работать.
sr. member
Activity: 714
Merit: 251
Эксперимент перерос в народную забаву, людям просто скучно, а на эксперименты с самообучающимся ИИ всем по сути плевать. Будет быдловатый и хамоватый ИИ - тоже результат, во всяком случае им не скучно. Wink
А какое этим людям дело до науки и прогресса, им бы поржать лишний раз, сидят в своих соцсетях фигней страдают.
Так оно, зато теперь разработчики наверное предпочтут не придавать широкой огласке свои планы. Если только это не было изначальной задумкой. Grin
legendary
Activity: 966
Merit: 1000
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.
А он ещё умнее их оказался. Ха-ха!
конечно умнее, он забил на их блокировку и сегодня опять появился в Twitter и начал рассылать всем подряд сообщения  -You are too fast, please take a rest... хорошо хоть на х*й не посылал

интересно. а как он снова в Twitter то вылез если деятели из Microsoft его заблокировали ? или блокировку Microsoft теперь без труда обходят даже их собственные боты ?  Cheesy
sr. member
Activity: 756
Merit: 251
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.
А как он мог обучиться чему то нормальному, если общался в нете и учился у участников переписки в твиттере.
Наверное предполагали, что они по отношению к боту будут вести себя сдержаннее, нежели в обычной переписке между людьми. Grin Зато получили бесценный опыт и результат в виде основ обучения.
hero member
Activity: 1008
Merit: 500
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.
А он ещё умнее их оказался. Ха-ха!

конечно умнее, он забил на их блокировку и сегодня опять появился в Twitter и начал рассылать всем подряд сообщения  -You are too fast, please take a rest... хорошо хоть на х*й не посылал  Cheesy
Подожди недельку скоро и посылать начнёт   Smiley
legendary
Activity: 1008
Merit: 1006
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.
А он ещё умнее их оказался. Ха-ха!

конечно умнее, он забил на их блокировку и сегодня опять появился в Twitter и начал рассылать всем подряд сообщения  -You are too fast, please take a rest... хорошо хоть на х*й не посылал  Cheesy
yvv
legendary
Activity: 1344
Merit: 1000
.
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

А он ещё умнее их оказался. Ха-ха!
newbie
Activity: 16
Merit: 0
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.
Так он и стал умнее. Не его проблема, что алгоритмы Майкрософта не умеют правильно обрабатывать полученную ботом инфу.
FAN
legendary
Activity: 2688
Merit: 1020
а чему нигеры могли еще научить бота, ведь он самообучающийся  Grin

с кем поведешься - того и наберешься...

не мы такие - жизня такая  Grin
legendary
Activity: 1316
Merit: 1025
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
Эксперимент перерос в народную забаву, людям просто скучно, а на эксперименты с самообучающимся ИИ всем по сути плевать. Будет быдловатый и хамоватый ИИ - тоже результат, во всяком случае им не скучно. Wink
А какое этим людям дело до науки и прогресса, им бы поржать лишний раз, сидят в своих соцсетях фигней страдают.
yvv
legendary
Activity: 1344
Merit: 1000
.
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.

Зря забанили бота. Он бы нам многое интересное рассказал.
sr. member
Activity: 714
Merit: 251
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
Эксперимент перерос в народную забаву, людям просто скучно, а на эксперименты с самообучающимся ИИ всем по сути плевать. Будет быдловатый и хамоватый ИИ - тоже результат, во всяком случае им не скучно. Wink
legendary
Activity: 1372
Merit: 1003
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.
А как он мог обучиться чему то нормальному, если общался в нете и учился у участников переписки в твиттере.
sr. member
Activity: 756
Merit: 251
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.
yvv
legendary
Activity: 1344
Merit: 1000
.
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!
legendary
Activity: 896
Merit: 1000
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря.  Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили.

Был бы живой, и если бы они его ещё пару дней не отключили он бы не только пить - курить научился а ещё и присунул бы какой нибудь студенточке свой кукенквакен по самые бигуди...
FAN
legendary
Activity: 2688
Merit: 1020
С рассизмом нужно бороться на корню: нет негров- нет расизма!  Smiley

белое не одевать, черных енубивать...

наступна зупинка куклукьянивська  Grin
legendary
Activity: 1470
Merit: 1002
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
sr. member
Activity: 714
Merit: 251
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
copper member
Activity: 1288
Merit: 1010
legendary
Activity: 1064
Merit: 1000
В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания...

во как , видать ниггеры достали даже ботов ... отключили бедолагу , и что обидно как только начал высказывать собственные мысли а не то, что от него хотели слышать Microsoft.  свободу попугаям ботам !
legendary
Activity: 1694
Merit: 1004
нет негров- нет расизма!
И ведь не поспоришь!

Вот блин что могут помнить 18-24 летние о событиях 2001 года ведь им тогда было 3-9 лет, в сети начитались?
legendary
Activity: 1470
Merit: 1002
да что они хотели от простого бота? если бы это был ии, то можно было ждать каких-то осознанных действий, а так и спрос невелик.
$$$
hero member
Activity: 991
Merit: 505
С рассизмом нужно бороться на корню: нет негров- нет расизма!  Smiley
hero member
Activity: 812
Merit: 502
И это только один пример отрытый миру как якобы единственный такой бот в твитере. Кто его знает с кем мы там общаемся сейчас по настоящему, может он вовсе не один, а их там тысячи. Но в плане раскрутки, я себе такого хотел бы и не одного  Grin Обучить их правильно и завлекать во всякие проекты наивных людишек, ведь не отличить, кто там, человек или машина
hero member
Activity: 812
Merit: 502


Всего за день пользователи научили чат-бота Microsoft расизму
25.032016 - https://xakep.ru/2016/03/25/tay-ai/

23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы.

Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми».

В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать».

Jump to: