Кризис доверия
May. 18th, 2007 12:28 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
![[livejournal.com profile]](https://www.dreamwidth.org/img/external/lj-userinfo.gif)
И вот какие интересные мысли у него проскальзывают:
Под "сбоями взаимодействия" подразумеваются аварии, когда действия экипажа, сами по себе, вполне разумны, и все системы самолета работают исправно, но "плюс" на "плюс" совершенно неожиданно дает "минус". Такое было совершенно невозможно в машинах 1950 – начала 1970-х годов, которые "по определению" подчинялись воле пилота. Но с появлением различной автоматики безопасности, призванной уберечь машину от возможных грубых ошибок человека, с удивительным постоянством стали возникать ситуации, которые пилот и автоматическая система оценивали по-разному. В результате, часть команд летчика блокировалось автоматикой – с вполне однозначным результатом. Например, автоматика А-320 не распознала касание земли при посадке самолета в Варшавском аэропорту и отказалась выпустить спойлеры и включить реверс двигателя
То есть разработчики и покупатели техники не доверяют профессионалам, эту технику эксплуатирующим.
Вы думаете почему я так возвмущаюсь по поводу dbus, udev и прочих подобных нововведений в Linux? А потому что та же самая тенденция. Но в случае персональных компьютеров - она ещё более абсурдна. Получается что владелец компьютера не доверяет сам себе, вернее доверяет разработчику софта больше, чем самому себе. Да, конечно, в чем-то разработчик более компетентен. Да, конечно, есть ситуации когда надо защищаться от собственных ошибок. Но невозможность в некоторый конкретный момент взять управление на себя, сказать "делай как я сказал! Сейчас Я знаю, что все твои алгоритмы фигня, а делать надо так-то" - это мина замедленного действия, заложенная в техническую систему.
Там же:
Высокое информационное сопротивление советской пирамиды власти сыграло значительную роль в усугублении последствий катастрофы и, в частности, вызвало задержку эвакуации и переоблучение населения, но, во-первых, этот фактор компенсировался высокой организованностью процедуры эвакуации. И, во-вторых, информационное сопротивление американской управляющей системы оказалось приблизительно таким же в Нью-Йорке 11 сентября 2001 года или в Нью-Орлеане летом 2005 года. Кризис управления характеризует современный этап развития индустриальной цивилизации и равным образом проявился для всех ведущих промышленных стран.
Так причина-то та же самая. Социальная пирамида - это тоже такая машина, созданная людьми и управляемая людьми. И если создатели не доверяют конкретным операторам, а операторы - друг другу, информационное сопротивление неизбежно будет высоким.
Аналогичная тема у меня вылезла недавно в одной политической дискуссии.
![[livejournal.com profile]](https://www.dreamwidth.org/img/external/lj-userinfo.gif)
no subject
Date: 2007-05-18 11:54 am (UTC)Согласен. Но корень проблемы, думаю, глубже: автоматика пока не умеет творить, а адекватная оценка ситуации отчасти творческая задача, полагающаяся не только на опыт в данной сфере, но и на опыт из других. Именно поэтому толкового пилота никогда не заменит автопилот, нейросети не заменят толкового метеоролога и т.п. Т.е. разыгрывать стандартные положения они будут уметь, но девиации будут вызывать неадекватное поведение - система неустойчива по отношению к некоторым классам возмущений.
О классах возмущений - обратимся к Чернобылю: данных и опыта по работе реактора РБМК-1000 на малых мощностях или по его работе от токов выбега турбин почти не было, но "ума" хватило "поэкспериментировать". Системы контроля: 1) автоматика; 2) операторы; 3) проводящий эксперимент Дятлов; 4) команда сверху ("партия" ведь приказала проверить возможность автономной работы реактора). Но, обратите внимание, что полной информации о работе реактора и допустимых классах возмущений не имел, imho, даже Александров. Так и называлось, afair, эксперимент. Дорогой получился... да :(
Может тоже как-нить напишу, что знаю. Надо только валерьянкой запастись :/
Статью гляну на выходных.
no subject
Date: 2007-05-18 12:00 pm (UTC)Полной информации о любой физической системе (и даже о формальной, но достаточно сложной) не бывает ни у кого и никогда. Искусство управления заключается в том, чтобы получить нужную для принятия решения информацию до того момента, как принимать решение будет поздно.
no subject
Date: 2007-05-18 12:13 pm (UTC)И уж, согласитесь, информацию эту должны были добывать квалифицированные физики, а не инженеры-техники?!
Были траблы и в Manhattan project. И реактор футболисты собирали и при поиске крит.массы, чуть не рвануло. Но ведь не сотни тысяч?! (Сотни тысяч были позже. И, думаю, группа Оппенгеймера не раз пожалела о содеянном. Но это отдельный разговор.)