AI 101: 搞懂人工智能的必備詞彙
人工智能現在超熱的,正快速改變我們的世界。所以,了解一些基本的AI概念是很重要的喔! 這份清單列出了101個詞彙,當然是用AI模型裡面整理出來的 :),可以幫助你了解AI的一些重要概念、技術和趨勢。 不管是新手還是老手,搞懂這些詞彙就能讓你輕鬆加入討論,了解AI對我們的影響!
核心概念
1. Accuracy (Core): 準確度就是看AI模型回答對不對的次數。 這是評估AI系統好不好用的基本指標喔, 代表模型預測的和實際情況有多接近。 準確度越高,通常表示這個模型越可靠、越有用。
2. AI Agents: 就像是設計來觀察環境、做決定、然後採取行動來達成目標的系統。 這些代理可以自己運作,透過和環境互動來學習和成長。 比如說,像是語音助理、玩遊戲的AI,還有機器人系統等等。
3. AI as a Service (AIaaS) (AI 即服務): AIaaS 就是把AI功能當作雲端服務賣給你。 這樣一來,公司就可以用AI技術,不用自己養一堆專家或花大錢建設備啦。 AIaaS 提供的東西包括訓練好的模型、開發工具,還有可以擴充的運算資源等等。
4. AI Compute Scaling (AI 運算擴展): 因為AI模型越來越複雜、越來越大,訓練它們需要的電腦資源也變得超多。 AI 運算擴展就是要確保我們有足夠的處理能力、記憶體和頻寬來應付這些需求。 通常需要用到像GPU和TPU這種特別的硬體,放在大型資料中心裡面。
5. AI Companions (AI 夥伴): AI 夥伴就是設計來陪伴你、給你情感支持、和你互動的AI系統。 這些虛擬夥伴可以和你聊天、給你個人化的建議,甚至表現出同理心喔。 它們通常用來幫助你對抗寂寞、提供心理健康支持,或是單純當個好朋友。
6. AI Democratization (AI 大眾化): AI 大眾化就是要把AI工具、技術和知識推廣給更多人, 不只是專家和大公司才能用。 這表示我們要創造簡單好用的平台、教育資源,還有開放原始碼工具, 讓大家都能用AI的力量。 這樣才能促進創新,讓更多人享受到AI的好處。
7. AI Ethics (AI 倫理): AI 倫理就是指導AI系統開發和使用的原則和價值觀。 它處理一些重要的問題,像是公平性、透明度、責任和隱私。 有道德的AI就是要確保AI系統對社會有幫助,而且不會造成傷害或加深偏見。
8. AI Governance (AI 治理): AI 治理指的是管理AI開發和使用的框架、政策和組織結構。 這包括建立明確的數據使用、演算法設計和決策流程的規範。 有效的AI治理可以降低風險、確保符合規定,並提高大眾對AI的信任。
9. AI Hardware Acceleration (AI 硬體加速): AI 硬體加速就是開發和使用特殊的硬體元件,像是GPU(圖形處理器)和TPU(張量處理器), 來加速AI運算。 這些加速器可以比傳統的CPU更有效率地執行訓練和運行AI模型所需的複雜數學運算。 這樣可以縮短訓練時間,並提高效能。
10. AI Music Generation (AI 音樂生成): AI 音樂生成就是用人工智慧技術來創作原創音樂。 AI模型可以從大量的現有音樂數據中學習,然後創造出新的旋律、和聲和節奏,風格多變喔。 這項技術有潛力徹底改變音樂產業,帶來新的藝術表達形式和個人化的音樂體驗。
11. AI Regulation (AI 法規): 像是政府頒布的法律和規範,用來管理AI的開發和使用。 AI法規的目標是處理AI可能帶來的風險和道德問題,像是偏見、侵犯隱私,還有工作被取代等等。 最終目的,是建立一個可以鼓勵創新,同時確保AI能被安全使用,並且對大家都有益處的法律體系。
12. AI Safety (AI 安全): 這個領域主要研究怎麼避免太過先進的AI,可能造成的災難性風險和後果。 重點在於確保AI有超高智慧的同時,也能和人類的價值觀保持一致,不會無意間做出對人類有害的事情。 AI安全的研究方向包含AI控制、價值觀對齊,還有潛在的意外後果等等。
13. Alignment (Core) (對齊): 確保AI的目標和行為,都跟人類的價值觀和意圖一致。 這在AI開發中是個超級重要的挑戰,因為如果AI的目標偏離了,可能會做出對人類有害的事情。 現在有一些技術,像是從人類回饋中學習的強化學習 (RLHF),可以用來訓練AI模型,讓它們更了解人類喜歡什麼、不喜歡什麼。
14. AlphaFold: 這是DeepMind開發的AI模型,可以非常準確地預測蛋白質的結構。 這項突破簡直是生物學界的革命,讓科學家們可以更快、更有效率地了解蛋白質的結構和功能。 AlphaFold的預測可以用來加速藥物開發、研發新材料,還有增進我們對生命的了解。
15. Anthropic: 這是一家專注於AI安全和研究的公司,也是AI助手Claude的創造者。 Anthropic致力於開發可靠、容易理解,而且可以控制的AI系統。 他們的研究探索了確保AI對齊、減少偏見,以及促進負責任的AI開發等技術。
16. Artificial General Intelligence (AGI) (Core) (通用人工智慧): 這是一種假設中的AI, 它的認知能力跟人類一樣厲害,可以處理各種不同的任務。 也就是說,人類可以做的任何智力工作,AGI都能做到。 雖然現在還沒有AGI,但它仍然是許多AI研究人員的長期目標, 因為他們相信AGI可以徹底改變我們的社會。
17. AutoGPT: 這是一個實驗性的開放原始碼AI代理,它可以自主執行任務。 只要給AutoGPT一個目標,它就會嘗試用語言模型來規劃和執行行動,達成目標。 這種AI代理代表著我們朝著更自主、更有能力的AI系統,邁出了一步。
18. Bias (Core) (偏見): 這是模型輸出中出現的系統性錯誤,通常是因為訓練數據有偏見。 AI中的偏見可能會導致不公平或歧視性的結果, 讓社會不平等的情況更加嚴重。 找出並減少偏見是AI開發中一個非常重要的挑戰, 需要仔細注意數據收集、模型設計和評估。
19. Bias Mitigation (偏見減輕): 用來減少和修正AI模型和數據集中偏見的技術。 這些技術包括數據增強、重新加權,還有對抗性訓練等等。 偏見減輕的目標是確保AI系統對所有使用者來說,都是公平和公正的。
20. Calibration (校準): 衡量模型信心分數,跟它實際準確度是否相符的程度。 一個校準良好的模型,只會在它認為自己很可能正確的預測上,給出很高的信心分數。 校準對於確保AI系統值得信任, 並且它們的預測是可以依賴的,非常重要。
21. ChatGPT (Core): 這是OpenAI的招牌對話式AI模型,它最厲害的地方就是可以產生像人類寫出來的文字。 ChatGPT因為它的多功能性,還有可以協助你做很多事情的能力 (從寫電子郵件到回答問題),而廣受歡迎。 它代表著自然語言處理領域的一大進步, 並且引起了人們對對話式AI潛力的廣泛興趣。
22. Claude (Claude 3 Opus, Sonnet, Haiku): 這是Anthropic公司推出的一系列對話式AI模型, 它們的設計目標是樂於助人、無害,而且誠實。 Claude以其強大的推理能力,以及對AI安全的承諾而聞名。 Anthropic針對不同的使用情境,提供了不同版本的Claude, 像是創意寫作、複雜問題解決,還有低延遲互動等等。
23. Code Generation AI (程式碼生成AI): 這種AI系統可以生成各種程式語言的程式碼。 它可以協助開發人員自動執行重複性的任務、生成樣板程式碼, 甚至可以從自然語言描述中,創建整個應用程式。 程式碼生成AI有潛力大幅提高開發人員的生產力,並且加速軟體開發。
24. Cohere: 這是一個AI平台,可以讓你使用大型語言模型和其他AI工具。 Cohere專注於企業的使用情境,提供自然語言處理、文本生成和搜尋等解決方案。 這個平台的目標是讓各種規模的企業,都能夠輕鬆使用先進的AI功能。
25. Context Window / Context Length (Core) (上下文窗口/上下文長度): 語言模型可以一次考慮的最大Token數量 (輸入+輸出)。 較大的上下文窗口可以讓模型理解和生成更長、更連貫, 並且更符合語境的文本。 擴大上下文窗口是大型語言模型領域一個非常熱門的研究方向。
26. Copilot (Core): 這是一個由GitHub和OpenAI共同開發,基於AI的程式碼輔助工具。 Copilot可以提供即時的程式碼建議和自動完成功能, 幫助開發人員更快、更有效率地編寫程式碼。 它經過數十億行程式碼的訓練,可以理解各種程式語言和框架。
27. DALL-E (DALL-E 2, DALL-E 3) (Core): 這是OpenAI的AI圖像生成模型, 它可以根據文字描述,創造出逼真又充滿想像力的圖像。 DALL-E展示了AI在生成創意內容方面的強大能力, 並且啟發了一股AI圖像生成工具的熱潮。 最新版本的DALL-E,提供了更好的圖像品質、更強大的構圖控制, 以及更強的理解複雜提示的能力。
28. Data Privacy (數據隱私): 保護AI系統中使用的敏感資訊, 避免未經授權的存取和濫用。 數據隱私是AI開發中一個非常重要的道德和法律問題, 因為AI模型通常依賴於可能包含個人資訊的大型數據集。 匿名化、差分隱私,還有聯邦學習等技術,可以用來保護AI系統中的數據隱私。
29. Dario Amodei: 他是Anthropic公司的CEO, 這是一家領先的AI安全和研究公司。 Amodei在AI社群中是一位非常重要的人物, 他提倡負責任的AI開發,以及AI安全研究的重要性。 他在塑造關於AI倫理和治理的討論方面,扮演了關鍵的角色。
30. Demis Hassabis: 他是Google DeepMind的CEO, 這是一家開創性的AI研究公司。 Hassabis是一位著名的AI研究人員和企業家, 他以在強化學習和深度學習方面的工作而聞名。 他帶領DeepMind在遊戲 (AlphaGo)、蛋白質結構預測 (AlphaFold), 還有通用AI等領域,取得了突破性的成就。
31. Distillation (蒸餾): 訓練一個較小的模型 (學生),來模仿一個較大、更有能力的模型 (老師) 的行為。 蒸餾是一種用來壓縮大型語言模型, 並且讓它們更有效率地部署在資源有限的裝置上的技術。 學生模型學習逼近老師模型的輸入-輸出映射, 同時體積更小、速度更快。
32. Edge AI (邊緣AI):直接在本機裝置 (手機、感測器) 上運行AI模型, 而不是在雲端運行。 邊緣AI可以即時處理數據,不需要網路連線, 減少延遲並提高隱私。 這對於像是自動駕駛汽車、智慧家庭, 還有工業自動化等應用來說,特別有用。
33. Elon Musk: 他是xAI的創辦人, 並且參與了AI相關的討論和事業 (像是Tesla,還有之前的OpenAI)。 Musk一直以來都大力提倡AI安全, 並且對先進AI可能帶來的風險表示擔憂。 他創辦xAI的目的,是以一種符合人類價值觀, 並且對人類有益的方式來開發AI。
34. Emad Mostaque: 他是Stability AI的創辦人, 這家公司開發了Stable Diffusion。 Mostaque是開放原始碼AI社群中的一位重要人物, 他提倡AI技術的大眾化。 他相信AI應該讓每個人都能使用, 並且開放原始碼模型可以促進創新和協作。
35. Explainable AI (XAI) (Core) (可解釋的AI): 了解AI模型如何做出決策的方法和技術。 XAI的目標是讓AI系統更透明、更容易理解, 讓人們可以了解它們的預測背後的邏輯。 這對於建立對AI的信任, 並且確保AI系統以負責任和合乎道德的方式使用,至關重要。
36. F1 Score: 這是一個結合了精確度和召回率的指標,用來評估分類模型的效能。 F1分數是精確度和召回率的調和平均數, 可以提供一個平衡的模型準確度量測。 當處理不平衡的數據集 (其中一個類別的樣本數量明顯多於另一個類別) 時,它特別有用。
37. Federated Learning (聯邦學習): 這是一種分散式的AI模型訓練方法, 可以在分佈在多個裝置或組織上的數據上進行訓練。 聯邦學習可以在不共享原始數據的情況下,進行協作學習, 保護隱私和安全。 這對於像是醫療保健、金融和物聯網等應用來說,特別有用, 因為這些應用中的數據通常非常敏感,而且分佈廣泛。
38. Fei-Fei Li (李飛飛): 她是史丹佛大學一位領先的AI研究人員和教授, 以在電腦視覺和AI倫理方面的工作而聞名。 李飛飛大力提倡AI領域的多樣性和包容性, 並且在推動負責任的AI開發方面,扮演了關鍵的角色。 她也是AI4ALL (一個致力於增加AI教育和研究領域多樣性的非營利組織) 的共同創辦人。
39. Few-shot Learning (Core) (少量樣本學習): 在只看過Prompt中少數範例後,就能夠執行任務的能力。 少量樣本學習是讓AI模型適應只有少量數據的新任務和領域的關鍵能力。 這在收集大量標記數據的成本很高或很耗時的情況下,特別有用。
40. Fine-tuning (Core) (微調): 將一個預先訓練好的模型,調整到特定的任務或數據集上。 微調包括在一個較小的、特定任務的數據集上,訓練一個已經存在的模型, 讓它可以專門針對該任務進行優化,並提高效能。 這是一種常見的技術,可以用來利用大型語言模型學到的知識, 並將它們應用到特定的應用程式上。
41. Fluency (流暢度): 生成的文字聽起來有多自然,文法有多正確。 流暢度是評估語言模型品質的一個關鍵因素, 因為它決定了人們可以多輕鬆地理解和使用生成的文字。 一個流暢的模型會產生文法正確、風格恰當,而且容易閱讀的文字。
42. Foundation Models (基礎模型): 在廣泛的數據上訓練的大型模型, 可以針對許多下游任務進行調整 (微調)。 像大型語言模型這樣的基礎模型, 在大量的數據集上進行訓練, 並且可以透過微調或Prompt工程,來適應各種不同的任務。 它們是建構更專業的AI系統的基礎, 並且徹底改變了AI領域。
43. Generative AI (GenAI) (Core) (生成式AI): 能夠創造新內容 (文字、圖像、程式碼、音訊、視訊) 的AI。 生成式AI模型學習數據中的底層模式, 然後生成類似於訓練數據的新樣本。 這項技術有潛力改變許多產業,從娛樂和設計到醫療保健和教育,都有它的用武之地。
44. Geoffrey Hinton (Core): 他是一位開創性的AI研究人員, 通常被稱為「AI教父」,以他在深度學習和神經網路方面的工作而聞名。 Hinton的研究為我們今天使用的許多AI技術奠定了基礎。 他大力提倡AI造福人類的潛力, 但也警告人們注意潛在的風險,以及AI安全研究的重要性。
45. Gemini (Ultra, Pro, Nano): 這是Google公司推出的一系列多模態AI模型。 Gemini的設計目標是一個多功能的AI模型, 可以處理和生成文字、圖像、音訊和視訊。 Google針對不同的使用情境,提供了不同版本的Gemini, 像是創意內容生成、複雜問題解決,還有行動應用程式等等。
46. GitHub Copilot (Core): 這是GitHub和OpenAI共同開發的AI程式設計師助手。 Copilot可以提供即時的程式碼建議和自動完成功能, 幫助開發人員更快、更有效率地編寫程式碼。 它經過數十億行程式碼的訓練,可以理解各種程式語言和框架。
47. Google TPUs (Tensor Processing Units) (張量處理單元): 這是Google公司為了加速AI工作負載而設計的客製化硬體。 TPU的設計目的是比傳統的CPU和GPU更有效率地執行訓練和運行AI模型所需的複雜數學運算。 它們被廣泛應用在Google的資料中心中, 為搜尋、翻譯和圖像識別等AI服務提供動力。
48. Grok: 這是xAI公司開發的AI模型。 關於Grok的架構和功能的詳細資訊仍在不斷湧現, 但預計它將是一個大型語言模型, 並且專注於真實性,以及帶有一點調皮的個性。
49. Hallucination (Core) (幻覺): 模型產生看似合理,但其實不正確或毫無意義的資訊。 幻覺是大型語言模型的一個常見問題, 它們有時會產生在事實上不正確,或與輸入不一致的輸出。 減少幻覺是AI研究中的一個關鍵挑戰, 因為它可能會損害人們對AI系統的信任。
50. Hugging Face (Core): 這是一個託管AI模型、數據集和工具的平台, 它是開放原始碼AI社群的核心。 Hugging Face為AI開發人員提供了廣泛的資源, 包括預先訓練好的模型、數據集,以及訓練和部署AI模型的工具。 它已經成為開放原始碼AI社群的一個中心樞紐, 促進了協作和創新。
51. Ian Goodfellow: 他是生成對抗網路 (GAN) 的發明者。 Goodfellow發明的GAN徹底改變了生成式AI領域, 讓我們可以創造出逼真的圖像、影片和其他類型的內容。 GAN由兩個神經網路組成,一個是生成器,另一個是鑑別器, 它們互相競爭,以生成越來越逼真的輸出。
52. ICLR (International Conference on Learning Representations) (國際學習表徵會議): 這是一個主要的年度AI研究會議, 專注於深度學習和表徵學習。 ICLR是AI領域尖端研究的領先場所之一, 吸引了來自世界各地的研究人員。 會議的特色是介紹各種主題的論文, 包括深度學習、表徵學習,以及它們的應用。
53. ICML (International Conference on Machine Learning) (國際機器學習會議): 這是一個主要的年度AI研究會議, 涵蓋機器學習的所有領域。 ICML是最古老、最負盛名的機器學習會議之一, 吸引了來自學術界和產業界的研究人員。 會議的特色是介紹各種主題的論文, 包括監督式學習、非監督式學習、強化學習,以及理論機器學習。
54. Ilya Sutskever: 他是OpenAI的共同創辦人,以及前首席科學家, 也是深度學習領域的關鍵研究人員。 Sutskever為深度學習領域做出了重大的貢獻, 尤其是在循環神經網路和序列到序列模型的開發方面。 他在OpenAI許多突破性的AI系統 (包括GPT-3和ChatGPT) 的開發中, 扮演了關鍵的角色。
55. ImageNet Challenge: 這是一個年度競賽 (在2010-2017年最為突出), 它推動了電腦視覺的發展。 ImageNet Challenge包括訓練AI模型, 將圖像分類到數千個不同的類別中。 這項競賽促使電腦視覺取得了重大的進展, 並且幫助深度學習成為一種強大的圖像識別工具。
56. Inference Cost (推論成本): 運行模型以生成回應所需的運算資源 (以及因此產生的金錢)。 推論成本是在部署AI模型時,一個需要考慮的關鍵因素, 尤其是在資源有限的環境中。 降低推論成本的方法包括模型壓縮、量化, 以及使用特殊的硬體。
57. Inference Speed (推論速度): 模型生成回應或預測所需的時間。 推論速度是許多AI應用程式的一個關鍵因素, 尤其是在需要即時或近即時回應的應用程式中。 提高推論速度的方法包括模型優化、硬體加速, 以及使用有效率的演算法。
58. Instruction Following (Core) (指令遵循): 模型理解和執行特定命令或指令的能力。 指令遵循是AI助手和其他對話式AI系統的一個關鍵能力。 一個可以準確遵循指令的模型,會更加有用和多功能。
59. Jeff Dean: 他是Google DeepMind和Google Research的首席科學家。 Dean是一位著名的電腦科學家和AI研究人員, 他以在分散式系統、機器學習和AI基礎設施方面的工作而聞名。 他在開發Google的許多核心技術 (包括Google檔案系統、MapReduce和TensorFlow) 中, 扮演了關鍵的角色。
60. Jensen Huang (黃仁勳): 他是Nvidia (一家主要的AI硬體 (GPU) 供應商) 的CEO。 黃仁勳帶領Nvidia成為AI硬體市場的主導者, 其GPU被廣泛用於訓練和運行AI模型。 他大力提倡AI改變許多產業的潛力, 並且致力於提供加速AI創新所需的硬體和軟體工具。
61. Transformer 架構: 就像蓋房子的地基一樣,現在最強的AI語言模型都是用這個架構做的,讓AI可以更好地理解我們說的話。
62. 混合專家模型 (MoE): 這種厲害的模型就像有很多小幫手,每個小幫手都很會處理特定的問題,合起來就變得超強,什麼都能做!
63. Kai-Fu Lee (李開復): 他是一位著名的AI投資者, 也是中國AI生態系統的專家。 李開復是Sinovation Ventures (一家投資AI新創公司的領先風險投資公司) 的董事長兼CEO。 他大力提倡AI改變中國的潛力, 並且相信中國有潛力成為全球AI領導者。
64. Knowledge Cutoff (知識截止點): 模型訓練數據沒有涵蓋的時間點, 這限制了模型對近期事件的了解。 大型語言模型在大量的文字和程式碼數據集上進行訓練, 但它們的知識僅限於它們所訓練的數據。 這表示它們可能不知道在收集訓練數據後發生的近期事件或發展。
65. Large Language Models (LLMs) (Core) (大型語言模型): 這是像ChatGPT這樣的模型的底層技術, 它們在大量的文字數據上進行訓練。 LLM是一種神經網路, 它們在大量的文字和程式碼數據集上進行訓練。 它們可以生成人類品質的文字、翻譯語言、編寫不同種類的創意內容, 並且以資訊豐富的方式回答你的問題。
66. Latency (Core) (延遲): 發送Prompt和收到回應之間的時間延遲。 延遲是許多AI應用程式的一個關鍵因素, 尤其是在需要即時或近即時回應的應用程式中。 降低延遲的方法包括模型優化、硬體加速, 以及使用有效率的演算法。
67. Llama (Llama 2, Llama 3): 這是Meta公司推出的一系列開放原始碼大型語言模型。 Llama的設計目標是一個強大且容易使用,可以用於各種任務的語言模型。 Meta公司已經發布了不同大小和功能的Llama版本, 使它成為AI開發人員的多功能工具。
68. LLM Compression (LLM 壓縮): 減少大型語言模型的大小和運算成本的技術。 LLM壓縮對於在資源有限的裝置上部署LLM, 並且降低推論成本至關重要。 量化、剪枝和蒸餾等技術,可以用來在不犧牲太多準確度的情況下,壓縮LLM。
69. Margaret Mitchell: 她是一位AI倫理研究人員, 專注於模型文件和評估。 Mitchell是AI倫理社群中的一位重要人物, 她提倡負責任的AI開發,以及透明度和問責制的重要性。 她開發了創新的方法來記錄和評估AI模型, 以確保它們是公平、沒有偏見,並且符合人類價值觀。
70. Mark Zuckerberg: 他是Meta公司的CEO, 並且推動了開放原始碼AI的發展 (Llama)。 他在AI方面下了很大的賭注, 在AI研究和開發方面投入了大量的資金。 Meta公司已經發布了多個開放原始碼AI模型 (包括Llama), 以促進AI社群的創新和協作。
71. Midjourney (Core): 這是一個受歡迎的高品質AI圖像生成服務。 Midjourney以其能夠根據文字Prompt生成令人驚嘆且逼真的圖像而聞名。 它是藝術家、設計師,以及任何想要創造具有視覺吸引力的內容的人的熱門工具。
72.Mistral AI Models (e.g., Mistral 7B, Mixtral) (Mistral AI 模型): 這些模型來自法國AI公司Mistral AI, 這家公司以其強大的開放原始碼貢獻而聞名。 Mistral AI因其高效能且有效率的開放原始碼AI模型而迅速獲得認可。 它們的模型設計易於存取和自訂, 使它們成為研究人員和開發人員的熱門選擇。
73. Model Alignment (Core) (模型對齊): 確保模型的目標和行為符合人類價值觀和意圖的過程。 這包括訓練AI系統理解和尊重人類的偏好、道德原則和社會規範。 實現模型對齊是AI安全研究中的一個關鍵挑戰。
74. Multimodal Models (Core) (多模態模型): 能夠處理和生成跨不同類型數據 (文字、圖像、音訊、視訊) 的AI系統。 多模態模型能夠理解和整合來自多個來源的資訊, 使它們能夠執行更複雜的任務,並提供更豐富的使用者體驗。 範例包括圖像字幕、視訊理解和多模態對話系統。
75. Mustafa Suleyman: 他是Microsoft AI的CEO, 也是DeepMind和Inflection AI的共同創辦人。 Suleyman是AI社群中的一位重要人物, 他以其在開發尖端AI技術方面的領導地位而聞名。 他大力提倡負責任的AI開發,以及解決AI潛在風險的重要性。
76. Diffusion Model 擴散模型: 這種模型超厲害,可以從雜訊裡面變出超真實、超漂亮的圖片和影片,就像變魔術一樣!2022年11月25日 – Stable Diffusion 2.0 發布) 這是對受歡迎的開放原始碼AI圖像生成模型的一個重大更新。 Stable Diffusion 2.0 引入了許多優於原始版本的改進, 包括增強的圖像品質、更強大的構圖控制,以及改進的處理複雜Prompt的能力。 這個版本進一步鞏固了Stable Diffusion作為AI圖像生成領域領先工具的地位。
77. Traditional Neural Networks 傳統神經網路: 在 Transformer 出現之前,大家都是用這種神經網路,雖然比較舊,但還是有一些工作很適合用它來做喔。
78. Nvidia GPUs (e.g., H100, A100, Blackwell) (Nvidia GPU): 這些圖形處理單元對於訓練和運行大型AI模型至關重要。 Nvidia的GPU是AI產業的主力, 提供訓練和運行大型AI模型所需的運算能力。 它們的GPU設計具有加速AI運算的特殊功能, 使它們成為AI研究人員和開發人員的首選。
79. DeepSeek: 這是一系列很厲害的AI模型,它們學東西超快,而且在某些特定領域特別厲害,代表AI又有了新的突破!
80. Open Source AI (Core) (開放原始碼AI): 將AI模型、數據集和工具公開提供的趨勢。 開放原始碼AI促進了AI社群的協作和創新。 透過公開提供AI技術, 研究人員和開發人員可以相互合作,加速進展, 並確保AI使每個人受益。
81. AI-Assisted “Vibe Coding” (AI 「感覺編程」): 現在大家開始用AI工具一起寫程式,讓寫程式變得更簡單、更好玩,就像玩遊戲一樣!
82. Parameter Count (參數數量): 模型在訓練期間學習的變數數量;通常與能力相關,但也與成本/大小相關。 參數數量是衡量AI模型大小和複雜程度的一個關鍵指標。 具有更多參數的模型通常具有更大的學習數據中複雜模式的能力, 但它們也需要更多的運算資源來訓練和運行。
83. Perplexity (Core): 衡量機率模型預測樣本的好壞程度; 較低的困惑度通常表示更好的語言理解。 困惑度是評估語言模型效能的一個常見指標。 具有較低困惑度的模型,可以更好地預測序列中的下一個詞, 這表示它對語言有更好的理解。
84. Perplexity AI: 這是一個提供引用答案的AI搜尋引擎。 Perplexity AI使用自然語言處理來理解搜尋查詢,並提供簡潔、引用的答案。 它的目標是提供一種更有效率和可靠的方式來在線上尋找資訊, 減少篩選多個搜尋結果的需求。
85. Poe: 這是一個由Quora公司推出的平台, 提供對各種AI聊天機器人的存取。 Poe允許使用者在一個地方與多個AI聊天機器人互動, 讓使用者可以輕鬆比較它們的功能,並找到適合特定任務的最佳聊天機器人。 它提供了一種方便的方式來探索快速發展的對話式AI領域。
86. Precision (精確度): 實際正確的正面識別比例。 精確度是用來評估分類模型效能的一個指標。 它衡量模型正面預測的準確性, 表示預測為正面的案例中有多少是真正正確的。
87. Pre-training (預訓練): 在大量數據上進行的初始、大規模訓練階段。 預訓練是訓練大型語言模型的一個常見技術。 模型首先在大量的文字和程式碼數據集上進行訓練, 使其可以學習通用的語言技能。 然後,可以將預訓練的模型微調到一個較小的、特定任務的數據集上, 以提高其在該特定任務上的效能。
88. Prompt Engineering (Core) (Prompt 工程): 設計有效輸入 (Prompt) 以指導AI模型的藝術和科學。 Prompt工程包括仔細設計Prompt, 以引導AI模型產生所需的行為。 一個設計良好的Prompt可以顯著提高模型輸出的準確性、相關性和創造力。
89. Pruning (剪枝): 移除模型中不太重要的參數或連接,以減少大小並提高速度。 剪枝是一種用來壓縮AI模型,並使其更有效率地部署的技術。 透過移除不太重要的參數, 可以使模型更小、更快,而不會犧牲太多的準確性。
90. PyTorch: 這是一個主要由Meta AI開發的開放原始碼機器學習框架。 PyTorch是一個受歡迎的AI研究和開發框架, 以其靈活性、易用性以及對深度學習的強大支援而聞名。 它提供了廣泛的工具和函式庫,用於建構和訓練AI模型, 使其成為AI開發人員的多功能選擇。
91. Quantization (Core) (量化): 降低模型參數的精確度,使其更小、更快,但可能會略微降低準確性。 量化是一種模型壓縮技術, 透過用較少的位元表示模型的參數,來減少AI模型的記憶體佔用和運算需求。 這可以顯著提高AI模型的效率, 使它們適合在資源有限的裝置上部署。
92. Reasoning Ability (推理能力): 模型進行邏輯推導、解決問題和理解複雜關係的能力。 推理能力是智慧的一個關鍵方面, 並且對於AI系統執行複雜任務至關重要。 AI研究人員正在積極努力提高AI模型的推理能力, 使它們能夠以更複雜的方式解決問題、做出決策和理解世界。
93. Recall (召回率): 正確識別的實際正面比例。 召回率是用來評估分類模型效能的一個指標。 它衡量模型識別數據集中所有正面案例的能力, 表示正確預測的實際正面案例有多少。
94. Reinforcement Learning from Human Feedback (RLHF) (從人類回饋中進行強化學習): 使用人類偏好來對齊AI行為的訓練技術。 RLHF是一種強大的技術, 用於使AI模型與人類價值觀和偏好對齊。 它包括訓練模型來優化基於人類回饋的獎勵訊號, 使模型可以學習人類認為可取和不可取的事物。
95. Replit AI: 這是Replit中一個經過AI增強的程式碼編寫環境, 提供程式碼完成、生成和偵錯協助。 Replit AI的設計目的是幫助開發人員更快、更有效率地編寫程式碼。 它提供了一系列由AI驅動的工具, 例如程式碼完成、程式碼生成和偵錯協助, 使其更容易建構和部署應用程式。
96. Responsible AI / AI Ethics (Core) (負責任的AI/AI倫理): 開發和部署對人類公平、透明、負責任且有益的AI系統。 負責任的AI是AI開發的一個關鍵方面, 確保AI系統以一種有益於社會,並避免造成傷害的方式使用。 它涵蓋了廣泛的倫理考量, 例如公平性、透明度、問責制和隱私。
97. Retrieval-Augmented Generation (RAG) (Core) (檢索增強生成): 將LLM與外部知識檢索相結合以提高準確性並減少幻覺的技術。 RAG透過允許LLM存取和整合來自外部知識來源的資訊,來增強LLM的功能。 這提高了生成文字的準確性和可靠性,並降低了幻覺的可能性。
98. Robustness (Core) (穩健性): 模型在嘈雜或對抗性條件下或輸入略有變化的情況下表現如何。 穩健性是在實際環境中部署的AI系統的一個關鍵要求。 一個穩健的模型即使在面對嘈雜的數據、對抗性攻擊或意外的輸入時,也能維持其效能。
99. RunwayML: 這是一個專注於視訊生成和編輯AI工具的平台。 RunwayML提供了一個使用者友善的介面, 用於使用AI驅動的工具建立和編輯視訊。 它提供了一系列功能, 例如風格轉換、物件移除和視訊修復, 使其易於建立專業品質的視訊。
100. Sam Altman (Core): 他是OpenAI (一家領先的AI研究和開發公司) 的CEO。 Altman帶領OpenAI在AI領域取得了突破性的進展, 包括GPT-3、DALL-E和ChatGPT的開發。 他大力提倡AI造福人類的潛力, 並致力於負責任地開發AI。
101. Satya Nadella (薩蒂亞·納德拉): 他是Microsoft的CEO, 正在推動重要的AI整合 (透過OpenAI合作夥伴關係)。 納德拉已將AI作為Microsoft的一個關鍵優先事項, 在AI研究和開發方面投入了大量資金, 並與OpenAI合作將AI整合到Microsoft的產品和服務中。 他相信AI有潛力改變許多產業, 並致力於讓每個人都能使用AI。
