Штучний інтелект (ШІ) може мати величезний вплив на промислове виробництво, але довіра до системи та віра, що вона приймає правильні рішення, є критично важливими.

Рішення, прийняті складними нейронними мережами глибокого навчання, часто приймаються без пояснення. Оскільки ці системи в основному програмують самі себе, їх прийняття рішень не можна пояснити. Це було названо Black Box AI. Поточні дослідження спрямовані на підвищення прозорості рішень ШІ.

Для тих, хто впроваджує штучний інтелект прямо зараз, як ми дізнаємося, чи можемо ми повірити в те, що говорить ШІ? Одна справа – мати справу з наслідками неправильної рекомендації щодо купівлі або помилково відхиленої покупки в кредит. Але що відбувається, коли критично важливі операції – і особливо наша безпека – покладаються на ШІ?

Довіра – це тверда віра в надійність, правдивість, здатність і/або силу когось або чогось. Щоб люди повірили в штучний інтелект, їм потрібне більше, ніж пояснення чорної скриньки, що «штучний інтелект просто працює». Потрібно вийти за рамки цього, і користувачі повинні довіряти ШІ в таких аспектах, як:

  • Зрозумілість: користувачі повинні знати, чому системи ШІ приймають ті рішення, які вони приймають.
  • Компетентність: користувачі повинні розуміти обмеження ШІ. Крім того, системи штучного інтелекту також повинні знати про власні обмеження та враховувати їх.
  • операційна прозорість :користувачі повинні бачити. як системи ШІ працюють у режимі реального часу, і знати. чому вони поводяться так як вони.
  • Передбачуваність:користувачі повинні мати можливість передбачити, чк системи ШІ можуть відреагувати в конкретних ситуаціях.
  • Етика: системи ШІ повинні уникати етичних проблем, які можуть порушити довіру, якщо їх не розглядати обережно.

Детальніше:

https://www.controleng.com/articles/trust-and-reliability-are-crucial-for-ai-in-industrial-applications/