Pages:
Author

Topic: Чат-бот от Microsoft за день стал расистом - page 2. (Read 1647 times)

sr. member
Activity: 756
Merit: 251
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.
yvv
legendary
Activity: 1344
Merit: 1000
.
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!
legendary
Activity: 896
Merit: 1000
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря.  Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили.

Был бы живой, и если бы они его ещё пару дней не отключили он бы не только пить - курить научился а ещё и присунул бы какой нибудь студенточке свой кукенквакен по самые бигуди...
FAN
legendary
Activity: 2688
Merit: 1020
С рассизмом нужно бороться на корню: нет негров- нет расизма!  Smiley

белое не одевать, черных енубивать...

наступна зупинка куклукьянивська  Grin
legendary
Activity: 1470
Merit: 1002
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
sr. member
Activity: 714
Merit: 251
Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
copper member
Activity: 1288
Merit: 1010
legendary
Activity: 1064
Merit: 1000
В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания...

во как , видать ниггеры достали даже ботов ... отключили бедолагу , и что обидно как только начал высказывать собственные мысли а не то, что от него хотели слышать Microsoft.  свободу попугаям ботам !
legendary
Activity: 1694
Merit: 1004
нет негров- нет расизма!
И ведь не поспоришь!

Вот блин что могут помнить 18-24 летние о событиях 2001 года ведь им тогда было 3-9 лет, в сети начитались?
legendary
Activity: 1470
Merit: 1002
да что они хотели от простого бота? если бы это был ии, то можно было ждать каких-то осознанных действий, а так и спрос невелик.
$$$
hero member
Activity: 991
Merit: 505
С рассизмом нужно бороться на корню: нет негров- нет расизма!  Smiley
hero member
Activity: 812
Merit: 502
И это только один пример отрытый миру как якобы единственный такой бот в твитере. Кто его знает с кем мы там общаемся сейчас по настоящему, может он вовсе не один, а их там тысячи. Но в плане раскрутки, я себе такого хотел бы и не одного  Grin Обучить их правильно и завлекать во всякие проекты наивных людишек, ведь не отличить, кто там, человек или машина
hero member
Activity: 812
Merit: 502


Всего за день пользователи научили чат-бота Microsoft расизму
25.032016 - https://xakep.ru/2016/03/25/tay-ai/

23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы.

Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми».

В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать».

Pages:
Jump to: