Кризис доверия
May. 18th, 2007 12:28 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
![[livejournal.com profile]](https://www.dreamwidth.org/img/external/lj-userinfo.gif)
И вот какие интересные мысли у него проскальзывают:
Под "сбоями взаимодействия" подразумеваются аварии, когда действия экипажа, сами по себе, вполне разумны, и все системы самолета работают исправно, но "плюс" на "плюс" совершенно неожиданно дает "минус". Такое было совершенно невозможно в машинах 1950 – начала 1970-х годов, которые "по определению" подчинялись воле пилота. Но с появлением различной автоматики безопасности, призванной уберечь машину от возможных грубых ошибок человека, с удивительным постоянством стали возникать ситуации, которые пилот и автоматическая система оценивали по-разному. В результате, часть команд летчика блокировалось автоматикой – с вполне однозначным результатом. Например, автоматика А-320 не распознала касание земли при посадке самолета в Варшавском аэропорту и отказалась выпустить спойлеры и включить реверс двигателя
То есть разработчики и покупатели техники не доверяют профессионалам, эту технику эксплуатирующим.
Вы думаете почему я так возвмущаюсь по поводу dbus, udev и прочих подобных нововведений в Linux? А потому что та же самая тенденция. Но в случае персональных компьютеров - она ещё более абсурдна. Получается что владелец компьютера не доверяет сам себе, вернее доверяет разработчику софта больше, чем самому себе. Да, конечно, в чем-то разработчик более компетентен. Да, конечно, есть ситуации когда надо защищаться от собственных ошибок. Но невозможность в некоторый конкретный момент взять управление на себя, сказать "делай как я сказал! Сейчас Я знаю, что все твои алгоритмы фигня, а делать надо так-то" - это мина замедленного действия, заложенная в техническую систему.
Там же:
Высокое информационное сопротивление советской пирамиды власти сыграло значительную роль в усугублении последствий катастрофы и, в частности, вызвало задержку эвакуации и переоблучение населения, но, во-первых, этот фактор компенсировался высокой организованностью процедуры эвакуации. И, во-вторых, информационное сопротивление американской управляющей системы оказалось приблизительно таким же в Нью-Йорке 11 сентября 2001 года или в Нью-Орлеане летом 2005 года. Кризис управления характеризует современный этап развития индустриальной цивилизации и равным образом проявился для всех ведущих промышленных стран.
Так причина-то та же самая. Социальная пирамида - это тоже такая машина, созданная людьми и управляемая людьми. И если создатели не доверяют конкретным операторам, а операторы - друг другу, информационное сопротивление неизбежно будет высоким.
Аналогичная тема у меня вылезла недавно в одной политической дискуссии.
![[livejournal.com profile]](https://www.dreamwidth.org/img/external/lj-userinfo.gif)
no subject
Date: 2007-05-19 08:31 am (UTC)оказывается вы тоже против винды !
НО
в чернобыле именно так и сделали: вручную и против указаний выданных машиной и против инструкций созданных создателями реактора. И в ручную же потом не смогли ничего исправить.
Такчто проблема гораздо сложнее.
Мне кажется, что в случае с реактором конфликт между оператором и машиной надо всегда разрешать в пользу машины потому что в этом случае управляемый процесс:
1) принципиально быстрее реакции человеческого мозга
2) необратим
3) полностью ненаблюдаем человеком
В случае с управлением операционной системой, напротив, оператору доверия больше, потому что:
1) процесс всегда можно остановить и подумать
2) он теоретически обратим
3) он недоступен познанию машиной, потому что он по отношению к машине НЕ ВНЕШНИЙ.
так что напрасно вы все нахрен смешиваете.
from Mike
Date: 2007-05-26 04:06 pm (UTC)Правда, даже в случае реактора есть еще один нюанс - а) ядерные реакции познаны все же не до конца, а алгоритм работы автоматики еще и огрубляет известные теории (и не может этого не делать) и б) конструктивные особенности имеющегося физического устройства алгоритмом машины не рассматриваются (если этого не заложил автор алгоритма, на что гарантии нет) - см. пример с полыми концами стержней. Разумеется, у автора алгоритма времени больше, чем у оператора - но все же не настолько много, чтобы предусмотреть все возможные случаи...
no subject
Date: 2007-05-26 05:07 pm (UTC)1. Они не нарушали инструкций, поскольку запрета работы реактора на малых мощностях не было.
2. Их действия были продиктованы Программой (и они не сами эту Программу выдумали - пришла сверху, в т.ч. в её создании участвовали создатели РБМК-1000 в его изначальной "редакции").
3. Основополагающая причина аварии: это преступный конструкторский просчёт (или недочёт), нарушивший множество инструкций, стандартов и прочих документов, руководящих проектными и строительными работами по созданию ядерных реакторов. Виновники даже близко не стояли со скамьёй подсудимых. К примеру, довольно красноречивое сравнение самого Дятлова педали тормоза автомобиля с кнопкой АЗ-5. Нажимаете на тормоз в своём автомобиле, а вместо этого машина ускоряется, что есть немыслимый бред.