在科幻電影或是小說中,機器人或人工智慧在高度發展下,對人類產生威脅的情節始終是作家和編劇們的最愛,原因無他,就因為這是極有可能發生的事!在 Google、微軟、Facebook、IBM 等科技業者相繼投入人工智慧發展後,怎麼防止這類事件的可能發生,也成為這些公司隱而不宣,但正在進行的重要工作,而 Google 旗下的 DeepMind 人工智慧發展部門(AlphaGo開發部門),就公開闡述了他們如何避免這種情況發生!
電影魔鬼終結者描述人類對抗機器人戰爭,雖然只是虛構內容,但現實世界似乎逐漸實現,日前Google AlphaGo戰勝韓國圍棋好手李世?,讓人工智慧AI技術大步向前,但電腦未來是否不受控制,Google決定開發預防機制。
根據英國鏡報描述,Google旗下公司.AlphaGo開發商Deep Mind,決定未雨綢繆,不讓電影「審判日」劇情發生,提出Kill Switch概念,目的在阻止AI針對人類做出特別動作,例如發射核彈,專業術語稱「安全可中斷性」。關於安全可中斷性作用,可用於控制機器人,阻止發生不可逆後果,或讓人能躲避特殊處境,降低非預期事件發生風險。
在公佈的設計文件中,可以看出 DeepMind 團隊主要是防止人工智慧進行人類操作者設定之外的行為,透過在演算法中加入強制停止的設計,讓人工智慧在出現預期以外的行為,或是正在學習規避人類控制的時候,人類操作者能夠直接在底層的演算法終止機器或是人工智慧的學習過程,進而在人工智慧面臨失控的時候,可以透過這個緊急停止機制,停止人工智慧的運作,或是更改人工智慧的功能與任務。
科學巨擘.英國劍橋物理學者史蒂芬滅N金曾說,機器人與人工智慧對人類威脅並非杞人憂天,牛津大學哲學家Nick Bostrom也提出,無限制分享人工智慧研究成果,可能讓不懷好意者,做出負面行為,如果一個按鈕就能毀滅世界,任誰都不想有這個按鈕。
【101創業大小事/整理報導】
文章轉載自→http://www.101media.com.tw/content/MQqzzykV2xcsttVkyLdt5gcBO0N7YQ