機器系統變得日益復雜,因而,它們出錯後所造成的後果影響更大更加難以預料。為了彌補逐漸增長的認知風險,有人已經建議,在復雜的安全關鍵系統中,應該減少人人為的幹預,甚至不再施加任何人為幹預。但是,機器還不具有完全控制復雜系統的能力,因此,不可避免的會出現壹些狀況需要具備了判斷、創造力和自適應性的人類來解決,因為這是人類自身所獨特的能力。但是,在人機交互的系統中,人為的失誤又是壹貫存在的。當然,在失誤中才能更好的學習進步,而它只是人類推理能力在不確定的情況下所產生的副作用。自動化可以在各種各樣的安全環境中使用,但自動化的日益提高為人類自身監控和幹預檢測、診斷和修正系統的失敗所造成的後果找到了逃避責任的借口,事實上人類並沒有很好的扮演監控這壹角色。
在航空領域需要更好的責任分配系統來進行監測,這種需求是很顯然的。壹個明顯的例子是,盡管波音公司在自動化和航空領域所取得了令人矚目的成績,但在過去的32年中,波音公司把70%-75%的嚴重飛行事故(按照常規標準制定)歸咎與飛行人員的失誤。另壹項統計表明,在所有的系統事故中歸因於人為的失誤已經從1960年的20%提高到1990年的80%。人為原因造成的失誤率似乎抵消了自動化所帶來的提高。