Сучасні робочі середовища, особливо виробничі, характеризуються все більшою автоматизацією і цифровизацией. Системи стають розподіленими і взаємопов’язаними і супроводжуються невидимими складними процесами.

Отже, співробітникам, які працюють в таких умовах, щодня доводиться стикатися з новими проблемами – подробнее про те, як їх уникнути, за посиланням. У статті ми розповімо, як люди сприймають технологічні розробки, внесемо орієнтований на людину погляд на автоматизацію.

Перехід від автоматизації, орієнтованої на технології, до автоматизації, орієнтованої на людину

Вважається, що перехід від автоматизації, орієнтованої на технології, до автоматизації, орієнтованої на людину, стався не так давно. «Автоматизація, орієнтована на людину» – термін, що характеризує використання технологій автоматизації. Наприклад, інтелектуальних засобів, дисплеїв, пристроїв, призначених для попередження або для розширення можливостей та компенсації обмежень людей, відповідальних за безпеку і ефективність складних динамічних систем. Автоматизація формує припущення про прийняття рішень в системах, в яких управління об’єднує людей і машини.

Машинні агенти – це системи, засновані на знаннях і володіють як сильними, так і слабкими сторонами. Оскільки вони є комп’ютерами, можна очікувати, що машинні агенти будуть діяти своєчасно і узгоджено, адже вони не відволікаються і не втомлюються. Однак, з огляду на поточну обмеженість машинного інтелекту, дані агенти мають дуже крихким інтелектом: не завжди здатні надійно справлятися з непередбачуваними або аномальними подіями.

Людські агенти несуть відповідальність за виявлення і компенсацію обмежень машин. Таким чином, важливо, щоб автоматизована система підтримувала обізнаність оператора як про поточний стан системи в цілому, так і про станах машинних агентів, щоб гарантувати, що обидва набору агентів працюють у взаємодоповнюючих режимах.

Калібрування довіри до технологій

Будь-яке довіру – це питання прозорості. Якщо людина не знає, як працює техніка, куди потрапляють дані, що відбувається всередині, йому складно їй довіритися. Дисплеї правдоподібності є частиною самої системи і повідомляють людині про рівень впевненості в прогнозі або діагнозі, зробленому автоматизацією. Це може проінформувати про надійність прогнозу або діагнозу і, отже, дати відповідну відповідь, але в той же час може і збільшити недостатнє довіру в разі помилки.

Оскільки при взаємодії з автоматизованими системами люди часто миряться з пасивною роллю, вони можуть втратити обізнаність про ситуацію при виконанні завдання, що виявляється проблематичним в різних умовах. Наприклад, при використанні адаптивного круїз-контролю під час водіння легко втратити інформацію про оточуючих автомобілях, тому що водій активно не бере участі в управлінні швидкістю і йому навіть не потрібно гальмувати, якщо автомобіль наблизиться до іншого авто.

Або при впровадженні систем моніторингу мережі і аналізу безпеки (зокрема, таких як Cisco StealthWatch) адміністратору вже не потрібно самостійно проводити збір та аналіз даних. Це може привести до зниження контролю з боку адміністратора. Самозаспокоєність часто означає занадто велику довіру до автоматизації. Це створює проблему, тому що автоматизація не завжди може бути стовідсотково надійної і не схильною до збоїв.

Якщо людина-оператор надмірно впевнена в надійності автоматизації, вона може заспокоїтися і перестати регулярно контролювати її роботу, що, в свою чергу, може призводити до нездатності помічати відмови автоматики і мати серйозні наслідки.