Как устранить человеческий фактор

Мнение редакции может не совпадать с мнением автора

Профессиональные ошибки, от которых не застрахован никто из нас, могут приводить просто к неловким ситуациям, а могут — к серьезным катастрофам и гибели людей. Как устранить саму возможность вмешательства человеческого фактора в системы, от которых зависит наша безопасность? Об этом говорится в статье специалиста по эргономике, профессора Университета Ноттингема Сары Шарплз, опубликованной британским онлайн-изданием The Conversation. Предлагаем вам прочитать ее в переводе на русский язык.

Тодд Лэндмен, профессор политологии, получив приглашение выступить в утренней программе на «Би-би-си» Breakfast TV show, никак не ожидал, что, когда он придет, ему предложат поговорить об альпинизме. Вообще-то его звали на специально назначенную и заранее спланированную программу, темой которой должен был стать Дональд Трамп.

Однако череда примитивных ошибок привела к неловкому недоразумению: ведущий утреннего шоу только в ходе прямого эфира, к большому удовольствию журналистов из конкурирующих изданий и пользователей соцсетей, понял, что его собеседник — не Лесли Биннз, альпинист и бывший британский военнослужащий из Северного Йоркшира, а университетский ученый с американским акцентом.

Подобные ошибки случаются нередко. Многим памятна подобная путаница, когда ведущий «Би-би-си» в прямом эфире пытался интервьюировать конголезского сотрудника IT-сферы Гая Гому о судебном разбирательстве между компанией Apple Computer и группой The Beatles, приняв его за британского журналиста Гая Кюьни.

Никто персонально не был виноват в той путанице, в которую попал Тодд. Вследствие необычной комбинации совпадений и недоразумений ведущие и редакторы «Би-би-си» искренне думали, что Тодд — это Лесли Биннз, и это несмотря на тщательные процедуры планирования каждой программы. Как же получается, что простые ошибки способны приводить к столь существенным сбоям в сложной системе со многими уровнями проверок? Ответив на этот вопрос, мы приблизимся к пониманию того, как предотвращать куда более серьезные ошибки, например, во время медицинских операций или при аварии на борту самолета.

Поможет нам в этом такая наука, как

. Она изучает влияние человеческого фактора и может подсказать, как проектировать устройства и системы с учетом способностей и ограничений, свойственных человеку. Люди часто принимают решения, основанные на неполной информации, и прибегают к примерным правилам, известным как эвристические, чтобы перескочить к наиболее желательному решению или гипотезе. Проблема с решениями, которые мы принимаем на основании этих правил, заключается в том, что они могут быть предвзяты.

В случае с Тоддом ни он сам, ни сотрудница «Би-би-си» просто не ожидали, что может произойти такая путаница. По этой причине каждый из них по-своему понял реплики, которыми они успели обменяться перед съемками. Сотрудница, встретившая Тодда в редакции, обратилась к нему со словами: «Здравствуйте, Лесли, да вы в костюме», — подразумевая под этим отсутствие альпинистского снаряжения. Тодд понял это иначе: «Здравствуйте, [меня зовут] Лесли», — после чего последовала малозначащая реплика по поводу его внешнего вида. Из-за этой разницы интерпретаций, а также дефицита времени в студии ни один из них не понял, что произошла ошибка.

 

Предвзятость с подтверждением

В системах, для которых безопасность является критическим фактором, последствия таких предубеждений и поступков, совершенных на их основании, могут оказаться куда серьезнее, чем неловкая ситуация, возникшая в результате путаницы на «Би-би-си» Breakfast. В 1989 году пилоты рейса номер 92 авиакомпании British Midland ошибочно решили, что им поступил сигнал о возгорании правого двигателя. Когда они выключили его, вибрация самолета, начавшаяся незадолго до этого, прекратилась.

Так в процесс принятия ими решений вкралась предвзятость, основанная на подтверждении, — их действие привело ровно к тому результату, который они ожидали, поэтому они подумали, что устранили проблему. К сожалению, они изначально неправильно интерпретировали поступившую информацию и выключили не тот двигатель. Самолет разбился на подлете к аэропорту, и 47 пассажиров погибли.

Решения не принимаются в социальном вакууме. Мы следуем социальным нормам и ведем себя так, чтобы соответствовать ожиданиям других людей как на работе, так и за ее пределами. Подобно тому как Тодд не стал разбираться в недоразумении, хотя и заметил, что что-то пошло не так, еще до начала передачи, мы не хотим оспаривать или обсуждать чьи-то решения в определенных ситуациях, когда опасаемся попасть в неловкую ситуацию или когда ответственность лежит не на нас.

Например, в больницах пациенты и младшие медработники часто полагают, что врачи никогда не ошибаются. К сожалению, случай Элейн Бромили, которая скончалась от удушья в ходе самой обычной операции, показывает, чем грозит недопонимание в операционной. К гибели пациентки привело сразу несколько факторов, но особенно подчеркивалось, что медсестры, ассистировавшие при операции, увидели опасность прежде, чем врачи успели осознать всю серьезность происходящего. К несчастью, медсестры не решились побеспокоить врачей вопросами.

Сегодня в больницах Великобритании принимаются специальные меры к тому, чтобы все члены персонала могли обсуждать медицинские решения и оспаривать их, если кому-то — пусть даже самому младшему из коллег — они кажутся неверными.

В случае с рейсом 92 пассажиры услышали, как по внутреннему радио пилоты объявили о неполадках в правом двигателе, но через иллюминаторы им было видно, что горит левый двигатель. Выжившие в катастрофе позже рассказывали, что заметили несоответствие между тем, что видели своими глазами, и тем, о чем объявил командир экипажа, но им не пришло в голову, что это элементарная ошибка и в действия пилотов необходимо срочно внести исправления.

Когда что-то необычное начинает происходить в рамках динамической системы, мы включаем интеллектуальные и социальные навыки, чтобы устранить возможную опасность. Это состояние известно как озарение при стрессе, или бессознательная компетенция. Наиболее сложные динамические системы должны строиться с учетом как особенностей техники, так и человеческого фактора. Они должны сохранять работоспособность, исходя из возможного поведения людей в разных ситуациях, и включать в себя такие компоненты для предотвращения ошибок, как обязательные проверки и формализованный процесс коммуникации.

При этом важно убедиться, что эти компоненты не вводят людей в замешательство и не порождают чувства неловкости между ними. И когда мы столкнемся с чьей-то возможной ошибкой, мы должны чувствовать себя достаточно уверенно, чтобы собрать всю свою храбрость и вежливо, но твердо сказать: «Сэр, мне кажется, к вам в студию пришел не тот человек».

Перевод с английского Д. Иванова
The Conversation

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.