~
Т.е. уничтожение человечества в качестве профилактики, чтобы люди не болели, в итоге Вы полагаете правильным, поскольку оно чрезвычайно эффективно решает задачу, а этичность этого вопроса не имеет отношения к реальности?
Многие знают мою любовь к крайностям в ответах, больше этого я только люблю, когда крайний и негативный ответ воспринимается, как единственно верный и на нем строится аргумент
Людям в подобном мире не останется места для работы (ну единицам, максимум) и они смогут заниматься собой, творчеством, получать удовольствие от новых ощущений, путешествовать. Зачем их испепелять?
~
Отчего же ошибки начнут стремиться к нулю? Они будут стремиться к увековечению. Если бы такая система укрепилась на уровне представления о мироздании как о геоцентрической системе с хрустальными сферами вокруг, то обучаемый компьютер только увеличивал бы число сфер с разными моделями движения до достижения приемлемой погрешности, здравый смысл найти другую модель машинной логике не подвластен.
Там чуть выше был пример про шашки Го, про одну из самых сложных логических игр в мире. Если посмотреть про то, как происходило самообучение алгоритма - можно признать, что им отметались все неверные ходы, в пользу самых сильных. И в этом работа ИИ, потому что процесс обучения происходит в настоящем времени, что позволило ИИ выиграть у самого сильного игрока в мире.
~
Прекрасный вопрос для раскрытия темы.
1. Уже проскальзывала информация, что самые первые адреса Биткойна могут оказаться скомпрометированы, и проведённая людьми работа по обновлению кода Биткойна снижает вероятность вариантов взлома системы. Не было бы людей, есть вероятность, что Биткойн уже мог бы прекратиться, но его последовательное развитие делает его надёжнее.
Неужели в вариантах защиты, при помощи обновления кода - машина сможет проиграть человеку? Пусть не сейчас, а в ближайшее время.
2. Взлом возможен всегда. Умный взлом не сломает, а именно что скомпрометирует систему. Для самой системы это будет просто новая данность, в которой она будет логично работать. Без контроля человека внутренние ошибки будут мультиплицироваться. Мой опыт говорит о том, что любые системы сбоят.
Здесь я вижу разницу в наших точках зрения. Если вести разговор о настоящем - ваша точка зрения не оспорима. Только вот настоящее изменяется и первые опыты, которым уже несколько лет - говорят о том, что система может быть само-обучаема, а значит защищена.
3. Вы полагаете под контролем централизованный контроль, где кто-то будет сидеть и считать пенсии? Это вовсе необязательно. Блокчейн с заложенной формулой обработки данных вполне может справиться с этой задачей. Контроль здесь идёт не за отдельными элементами, а за системой в целом, чтобы она не сбоила.
Человек будет иметь права не только контроля за системой, но и будет обладать возможностью что-то поменять в системе в свою пользу, например? В первом случае, когда человек будет выполнять роль техника - он просто не нужен, потому что технический функционал можно прописать в действии сторонних алгоритмов, а во втором случае - этот человек будет обладать безграничной властью и где гарантии, что он этой властью не воспользуется?
4. Из предыдущего пункта на самом деле следует и этот: если Вы привыкли, что за десятилетия была одна модель, это не значит, что она отлита в бронзе. Если завтра пенсионная система эволюционно в обществе заменится всеобщим гарантированным доходом, возникнет необходимость менять всю систему. Если всё контролирует ЭВМ, то придётся жить как в романе Хаксли — в устаревшем, но устоявшемся мире. Оно точно этот мир так уж дивен?
А вот гарантированный доход - это скорее всего один из плюсов будущей цифровизации. Потому что людям, которые лишаться работы будет необходимо на что-то жить, причем с большим комфортом, чем они обладают в настоящее время. Но технически я не вижу разницы, каким из алгоритмов будет пользоваться машина, существующим, в виде пенсий или же будущим, в виде гарантированного дохода. Прописать в коде можно любую из систем.
5. Скомпрометировать систему можно не только программно, но и из внешнего мира, задавая ложные данные. Далеко не любые данные могут быть получены аппаратно. Значит, злонамеренное искажение данных останется, причём не будет возможности исправить... никогда.
Если не будет доступа - не будет и возможности. А если добавить сюда кучу различных источников проверки данных + логический анализ достоверности, то вариантов для ложных данных останется не так уж и много. Например, я скажу, что сегодня ночью Манчестер Юнайтед выиграл 3:0. Сколько времени будет вам достаточно, чтобы определить ложность этой информации?
Нет, не уговорите, в антиутопии компьютерного контроля мне жить не хочется.
Уговаривать не собирался
Просто каждый должен осознавать и другую сторону монеты при развитии технологий.