《遠見 - 短文》看似很危險,其實很難被AI取代的10種工作!
《AI 新世界:中國、矽谷和AI七巨人如何引領全球發展》李開復著,天下文化出版
文中開頭提到:AI 不一定會優先取代「藍領」階級勞工,取而代之容易被取代的工作會是一些高重複性的白領工作職務。
為何部分《藍領階級》的工作不易取代呢?
不容易被 AI 取代的工作,換言之,則是「人工智慧的技術短時間內還不足以支援此類型的服務」;現在的使用者,面對人工智慧的產品、產物,即便做出了類人的判斷後,大多抱持著「這是個厲害的演算法」、「原來 AI 這麼厲害」等想法,因此打從內心就不認同 AI 具備人類的思考方式,想當然爾,也就不會把他當作人類看待。
舉自由團隊的例子而言,自從做好 AI . Chatbot 後,給親朋好友們試用的結果,往往獲得的 Feedback 是「機器人太笨了」、「你的機器人還不完整」等,以下提供幾個有趣的範例:
(以上為親友們試用後的截圖,也歡迎讀者們使用過後截圖上傳到粉專文章底下!)
當然,自由團隊目前尚未把聊天機器人建置完整(經費議題...歡迎贊助),但從以上範例可以發現:對話過程中,使用者都是以「發問」、「指令」、「負向言語」等方式在進行交談,並非一般人的談話內容,因此縱然 AI 相關產品的設計過程中,有考慮到人性互動的溫度,但在使用者行為上又做了一層的預設立場:「談話對象不是人,是機器人」。
考量到使用者行為上,尚無法適應 AI 新科技的人性互動面,需要人性互動的藍領工作,短時間內並不會面臨取代的挑戰。如文章內所提及:
(1) 健身教練
(2) 長照人員/護理人員
(3) 地方管理員
(4) 觀光領隊/導遊
什麼樣類型的工作最易遭取代呢?
很多人聯想最容易被取代工作的便是基層藍領工作者:作業員、技術員、服務生等,但實質上面臨最危險、最容易被取代的職務其實是基層的白領工作者;以下簡單舉三個例子說明:
(1) 撰文記者
前線實地採訪的記者相對撰文記者來的安全許多,因為前線的記者就好比蒐集原始數據的人員,但後端撰稿的記者,僅需依照所獲得的資訊,比照既定的寫作邏輯進行文章的書寫,因此在足夠豐富的語料訓練下, AI 也能主動生成類似的撰文模型,因此只要一獲得相關事件資訊,AI 模型便能主動生成新聞文章。 (紐約時報文章推薦:Automated Journalism)
(2) 銀行理專
大家可能感到很訝異:銀行理專不是都是高知識份子嗎?為何還會遭到取代呢?理專的工作便是負責協助客戶進行理財,理財的過程,不外乎就是接受資訊(包含客戶個人偏好資訊、股票市場重大資訊等),經過財務模型分析、判斷過後,協助客戶進行最佳選擇的投資,但是 AI 判斷的能力比人類的判斷力更快速、精準,前端透過系統接收客戶偏好的需求過後,列入input 模型的資訊,再透過複雜的網路爬蟲技術,擷取最新、最完整的市場資訊,便能提供客戶投資的選項,甚至還有進一步完整的分析資訊供投資人查看!而這一部分的應用,便屬於 FinTech 的一環,也是各大金融業目前爭相角逐的重點!至於 AI 模型的分析能力、準確度、成效,皆考驗著金控對於前段資料的處理技術及演算法的技術應用能力。
(3) 文書、行政人員
從郵件的撰寫、資訊的溝通、資料分類歸檔等職務內容,皆是 AI 基礎的應用,可能多數人會覺得分類歸檔等議題,有時候連人都常常犯錯的事情,AI 怎麼有能力做對呢?
不知道讀者們對於紅樓夢是否熟悉?文史學家們一直有爭議:究竟前80回及後40回是否為同一人(曹雪芹)所撰寫呢?因此有學者們透過機器學習做了分類的研究,透過取樣前後篇章各15回進行語料分析的模型訓練,再以模型判斷是否能區分出前80回或後40回,最後分析的結果顯示:前80回及後40回的寫作風格具相當的差異,是否為同一人所寫或作者突逢變故而導致寫作文筆改變不得而知,但是機器學習模型是足夠代替人類做複雜資訊的分類及判讀,甚至是超越人類的判斷能力!(機器學習&紅樓夢文章推薦)
相信讀者們看到這邊,仍有許多疑問: AI 到底會如何翻轉整個職場?敬請關注 AI.FREE Team,我們將持續提供您最新、最完整的時事資訊!同時也歡迎讀者們追蹤粉絲專頁:https://www.facebook.com/AI.Free.Team/ ,期待您跟我們進一步的互動!