亚洲欧美另类在线,亚洲熟女www一区二区三区,久久久日本人妻精品一区三寸,久久久av波多野一区二区

行業門戶
NEWS CENTRE
首頁
>
新聞中心
>
《哈佛商業評論》前沿報告:為什么這三種通用技能是駕馭生成式AI、實現職場逆襲的關鍵
《哈佛商業評論》前沿報告:為什么這三種通用技能是駕馭生成式AI、實現職場逆襲的關鍵
2024-08-31 閱讀:150

來源:管理智慧

哈佛大學最新研究表明:在接下來的幾年中,生成型人工智能有望深刻改變多種職業

如今,人工智能已經不僅僅屬于技術專家,幾乎任何人都能通過使用日常語言的指令而不是編程來運用AI。我們的研究顯示,大部分商業功能以及超過40%的美國工作活動能夠通過通用人工智能被增強、自動化或徹底改造。預計這些變革將對法律、銀行、保險及資本市場等行業影響最大,隨后是零售、旅游、健康和能源行業。

對組織及其員工來說,即將到來的這一轉變將帶來重大的影響。在未來,我們很多人會發現,我們的職業成功將取決于我們能否從像ChatGPT等這樣的大型語言模型中獲取最優質的輸出,并能與這些模型一同學習與進步。為了在這個AI與人類合作的新時代中脫穎而出,大多數人需要掌握我們所稱的“融合技能”之一或多個——智能詢問、融合個人判斷力和相互學習。

智能詢問指的是以能顯著改善思考和結果的方式指導大型語言模型(或者說,給它們下達指令)。簡而言之,這是一種與AI共同思考的技能。例如,一名金融服務公司的客服人員可能在處理復雜的客戶問題時運用此技能;制藥科學家可能用它來探索藥物化合物和分子作用;市場營銷人員可能利用它分析數據集,以確定最佳零售價格。

融合個人判斷力則是在通用AI模型對下一步行動不確定或在其推理中缺乏必要的商業或倫理背景時,加入人類的判斷力。這一做法旨在使人機交互的結果更加值得信賴。判斷整合需要洞察何時、何地以及如何介入,其有效性可以通過AI輸出的可靠性、精確性和可解釋性來評估。

相互學習是你可以通過將豐富的數據和組織知識整合到你對AI的指令中,幫助它理解你的業務需求,從而將其培養成為你的創造伙伴。這種技能可以將通用AI定制化到適應公司的具體業務環境,使其能夠實現你期望的成果。在此過程中,你也將學會如何訓練AI處理更高級的挑戰。相互學徒制曾是數據科學家和分析專家構建模型時的專利,如今它在非技術崗位上也顯得日益重要。

為何需要系統地培養這些關于思考、建立信任和個性化定制的新技能呢?實證研究一致表明,目前大多數員工對大型語言模型的臨時指令通常會導致不穩定或不理想的結果,特別是在處理復雜的推理任務時。這一點在從客服到市場營銷、物流、研發等各個功能領域均是如此。因此,我們所有人在工作中使用通用AI時都需要增加更多的嚴謹性。本文將闡釋如何實現這一目標。

01

智能詢問

如何提升大型語言模型(LLM)這類基于海量數據和概率驅動(而非人類邏輯)的復雜系統的輸出?這里有幾種方法可供使用。

1、逐步推理。

在指導通用AI時,你需要將過程拆分為若干個步驟,并致力于優化每個環節,這類似于工業制造初期科學管理的方法。但AI處理的不是裝配線,而是一連串的思考過程,目的是尋找解決方案。研究顯示,當通用AI被引導以這種方式拆解推理任務時,其性能會顯著提高,這在處理復雜問題時尤其有效,OpenAI的研究員Jason Wei在首次探索“思維鏈條推理”時就已證明了這一點。

事實上,向LLM的指令中加入“讓我們逐步思考”這樣的簡單短語,可以在從數學到策略推理的多種任務中將其輸出的準確度提高三倍以上。比如,你的AI提示可能是:“我的部門有50萬美元預算,已經用20%購買設備,30%用于招聘新員工。我們剛獲得了5萬美元的預算增加。我們的剩余預算是多少?讓我們逐步思考。”模型將輸出:“起初,你部門有50萬美元。你花了20%,即10萬美元購買設備,剩余40萬美元。你又分配了30%,即15萬美元用于新招聘,預算降至25萬美元。最后,你收到了5萬美元的預算增加,剩余預算為30萬美元。”盡管大多數人可以在頭腦中做出這種計算,但LLM(其運算速度更快)能被訓練去詳細解釋在更復雜的量化問題上的計算過程,如計算銷售代表在多個城市間行駛的最短路線。這種方法產生了一個可追蹤的推理鏈,不是在一個黑箱過程結束時突然給出答案,而是讓你能夠驗證結果的準確性。

2、分階段訓練大型語言模型應對復雜任務。

在需要特定職業和領域知識的領域,如法律、醫療、科研或庫存管理中,可以逐步引入AI以達到更優效果。

舉例來說,麻省理工學院的研究者Tyler D. Ross和Ashwin Gopinath特近期探討了開發一種“AI科學家”的可能性,該科學家能整合多種實驗數據并提出可檢驗的假設。他們發現,當這一復雜任務被細分為若干子任務時,ChatGPT 3.5-Turbo能通過微調學習DNA的結構生物物理。在庫存管理這類非科學領域,子任務可能包括需求預測、庫存數據收集、訂貨預測、訂貨量評估和性能評估。對于每個子任務,管理者會利用自身的專業知識和信息來訓練、測試和驗證模型。

3、與大型語言模型進行創新型探索。

從戰略制定到新產品開發的許多工作流程都是開放式和迭代的。為了充分利用這些活動中的人工智能互動,你需要引導機器設想多種潛在解決方案的路徑,并以更加靈活和多元的方式作出響應。

這種智能詢問可以提高大型語言模型在預測復雜財經和政治事件方面的精準度,正如Philip Schoenegger, Philip Tetlock及其團隊最近的研究所示。他們將人類預測者與被訓練為“超級預測者”的GPT-4助手配對,這些助手能夠為不同結果分配概率和不確定性區間,并就每個結果提供正反兩面的論證。研究發現,這些助手的預測結果(涵蓋從某一特定日期的道瓊斯運輸平均指數收盤價到2023年12月通過地中海進入歐洲的移民數量)比未經特定訓練的大型語言模型的預測結果準確度提高了43%。

02

融合個人判斷力

在AI生成過程中引入專家級別及道德層面的人類判斷對于確保輸出的可信度、準確性和可解釋性,以及對社會產生正面影響極為關鍵。這里有一些你可以采用的方法:

1、整合檢索增強生成(RAG)。

大型語言模型(LLMs)不只有可能產生虛構信息,它們訓練所用的數據和信息往往也是多年前的。在運用LLMs時,用戶經常需要就輸出中的可靠、相關及最新信息的必要性做出判斷。如果這類信息是關鍵的,你可以利用檢索增強生成(RAG)技術,從權威的知識庫中添加信息到商用LLM的訓練資源中。這樣可以有效防止誤信息、過時的回應和不精確的數據。例如,制藥研究者可能會利用RAG技術接入人類基因組數據庫、最新的科學期刊、覆蓋臨床前研究的數據庫以及FDA的指導方針。要部署RAG,通常需要IT團隊的協助,他們能告訴你是否已經或能夠將其融合進他們的工作流中,從而為他們的工作增添一層額外的質量保證。

2、保護公司及個人隱私。

如果你在AI提示中使用機密數據或專有信息,只應使用經公司批準且部署在公司防火墻內的模型,切勿使用開源或公共的大型語言模型。在公司政策允許的前提下,如果大型語言模型的應用程序接口的服務條款明確信息不會被用于模型訓練,那么你可以使用私人信息。

同時,注意到在制定提示時可能引入的偏見。例如,如果一位財務分析師請求LLM解釋昨天的季報如何顯示公司已為未來五年的增長做好準備,這種詢問就表現出了近期偏見——在預測未來事件時過于依賴最近的信息。LLM供應商正在尋找解決這類問題的方法。例如,微軟和谷歌正在增加功能,幫助用戶檢測可能有害的提示和響應。Salesforce已經開發了一種AI架構,能夠在構建提示時隱藏任何敏感的客戶數據,防止這些數據被傳輸至第三方LLM,同時對輸出進行風險評估,如毒性、偏見和隱私問題,并收集反饋以改進提示模板。盡管如此,最終,最關鍵的還是你——系統中的人類用戶——的判斷。

3、仔細檢查可疑輸出。

根據現有研究,即使在進行大量數據處理和其他干預措施后,錯誤和幻覺仍然難以完全避免。加州大學伯克利分校的研究員Jinwoo Ahn 和 Kyuseung Shin指出,當大型語言模型的用戶遇到看似錯誤的輸出時,他們往往會本能地多次嘗試重啟模型,這反而可能逐漸降低回答的質量。研究者建議,應該確定AI出錯的具體步驟,然后使用另一個LLM單獨執行這一步驟,先將問題分解成更小的部分,再使用結果來調整第一個LLM。例如,一位科學家可能使用OpenAI的ChatGPT來幫助開發一種新的聚合物,并進行一系列的步驟計算。如果她在過程中的某個環節發現了錯誤,她可以讓Anthropic的Claude將問題分解成更小的子問題并進行解釋。之后,她可以將這些信息反饋給ChatGPT,請求它精煉其回答。這種方法本質上是將鏈式思維的原則應用于修正你認為錯誤的輸出。

03

相互學習:把AI培養成你的助手

隨著大型語言模型(LLM)的規模和復雜度增加,它們能夠展示出“突現屬性”——這些是未經特別訓練卻在提供了相關背景數據或知識后顯現的強大新能力,例如高級推理。為了推動它們的發展,你可以執行以下幾個步驟。

1、提供“思維示范”。

在向LLM提出問題讓其解決之前,你可以先引導它按照特定的方式進行思考。比如,你可以教授它“從簡到難”的推理方法,向AI展示如何把一個復雜的挑戰分解為幾個更小、更簡單的挑戰,先解決最簡單的問題,然后用這個解答作為解決下一個更復雜問題的基礎,依此類推。谷歌DeepMind的Denny Zhou和他的團隊證明了,這種“從簡到難”的方法能將AI輸出的準確率從16%提升到99%。

比如說:想象一位負責健身服品牌的營銷經理,他需要策劃一個新產品系列。他可以按照以下步驟指導LLM來分析問題:

  1. 受眾定位:識別潛在的客戶群體——健身愛好者。這對一個在公司客戶數據上進行過訓練的模型來說相對簡單。

  2. 信息設計:創建強調產品性能、舒適性和風格的營銷信息。這是一個更具挑戰性和需要創造性的任務,需要在已識別的受眾基礎上進行。

  3. 選擇渠道:選取社交媒體、健身相關博客和與影響者的合作,這些渠道將有助于將營銷信息有效傳達給目標受眾。

  4. 資源分配:根據所選擇的渠道進行預算分配,這通常是組織中最容易引發爭議的問題之一。

通過這種方式,營銷經理可以系統地利用大型語言模型來優化營銷策略的各個方面,確保新產品線的成功推廣。

2、通過上下文學習訓練你的LLMs。

你可以通過向AI展示一系列上下文示例來教它如何完成任務,這種方法允許你調整預訓練的大型語言模型如GPT-4、Claude和Llama,而無需復雜的參數調整。例如,研究者們通過向LLMs展示放射學報告、患者提問、治療進展記錄和醫患對話的示例,教會了它們如何總結醫療信息。研究發現,81%的LLM生成的總結質量達到或超過了人工總結。

你還可以通過提供相關背景信息并持續提問直至解決問題的方式來訓練LLM。例如,兩家軟件公司均希望提高銷售量。第一家公司的銷售團隊長期難以準確預測軟件許可需求,因此領導先是提供歷史銷售數據,詢問下一季度的預期需求,再提供關于客戶軟件功能升級和年度預算的信息,探討季節性影響,最后,他輸入了CRM系統和市場報告的詳細數據,探討市場活動對銷售的影響。

第二家公司的銷售團隊則關注于改善客戶選擇,領導可能會提供具體的財務數據,指導LLM按照收入貢獻對客戶進行排序,然后逐步深入到地理范圍、客戶群、技術能力等問題。在這一過程中,兩位高管都在通過具體的公司銷售策略上下文訓練LLM,并提高其完成任務的能力。他們將公司和行業的知識整合到交互中。隨著LLM在具體銷售流程上積累更多經驗,其生成的答案也越來越精準。

相互學習是一個過程,用戶從提出簡單的問題或指令開始,逐步增加任務描述的復雜性和細節。在這一過程中,他們可以增添背景信息,調整用詞,并觀察模型如何反應,不斷試驗直至實現預期效果。

04

最重要的是:學習和掌握AI技能

要廣泛掌握通用AI技能,不僅需要企業進行大量投資,也需要個人的主動學習和努力。雖然已有少數公司提供相關培訓,但大多數公司尚未建立完善的培訓體系。事實上,在我們2024年對7000名專業人士的調查中,雖然94%的人表示愿意學習新的技能以應對通用AI的挑戰,但僅有5%的人表示他們的雇主在大規模地積極培訓員工。因此,很多人將需要自主行動,跟上LLMs的快速進展以及各類工作和行業中逐步應用的高端研究。你可以注冊各類平臺提供的在線課程;嘗試我們討論過的提示技巧以及新興的提示方式;并推動你的雇主提供更多使用LLMs的機會,同時輔以最佳實踐的培訓。

接下來要掌握的是鏈式思維提示技能,應用于代理工作流和多模態大型語言模型(MLLMs)。這些模型能夠整合不同類型的數據,如文本、音頻、視頻和圖像,并能在這些格式中提供輸出。一項研究表明,鏈式思維提示可以將MLLMs的性能提高至100%。早期采用者已經在測試這些方法,但它們尚未成熟,還不足以廣泛推廣。

人工智能革命并非即將到來,而是已經來臨。領先的企業已經在利用這項技術重新定義各行業、各職能和各種工作的流程。通用人工智能大幅提高了標準,要求我們與AI共同思考,確保信任其結果,并不斷調整它和我們自身,以實現更優表現。盡管通用AI是推動人機共生關系的一部分,但它在技術發展史上也獨具一格。歷史上沒有其他重大創新以如此迅速的速度起飛。知識型工作的變革將比我們大多數人預想的更快、更強大。準備好吧。

未來的商業將不僅由通用AI驅動,更重要的是由那些能夠最有效運用它的人引領。

原文鏈接:https://hbr.org/2024/09/embracing-gen-ai-at-work

13560189272
地址:廣州市天河區黃埔大道西201號金澤大廈808室
COPYRIFHT ? 2010-2020 廣州市名聯網絡科技有限公司 ALL RIGHTS RESERVED 粵ICP備10203057號
  • 這里是二維碼
甘德县| 礼泉县| 刚察县| 景泰县| 韶山市| 黎川县| 丹东市| 鲁甸县| 邵阳市| SHOW| 钟山县| 扶余县| 乳源| 枝江市| 哈密市| 盘山县| 华容县| 城市| 马鞍山市| 连山| 延庆县| 怀柔区| 鄂托克前旗| 衡阳市| 枣阳市| 民县| 呼和浩特市| 沂南县| 宝坻区| 富川| 保康县| 饶阳县| 通江县| 南溪县| 望城县| 长治市| 灵川县| 黄骅市| 阳新县| 凌源市| 金乡县|