- 在線時間
- 75 小時
- 最後登錄
- 26-2-19
- 國民生產力
- 5305
- 附加生產力
- 12690
- 貢獻生產力
- 0
- 註冊時間
- 16-11-21
- 閱讀權限
- 10
- 帖子
- 5355
- 主題
- 22
- 精華
- 0
- 積分
- 23350
- UID
- 2356337
  
|
加樂爹 發表於 26-1-27 10:31 
你的20多種思考方法, 是否人類都有相似的思考程序?今日見到呢段新聞, 待你參考下給大家意見.
大 ... 恭喜發財, 祝大家馬年行大運! 心想事成! 身體健康!
坦白, 講你之前的問題, 是相當艱深的, 不要說我, 就算是當代最頂尖的幾位ai教授, 恐怕也沒法畀出答案, 因為你這幾條問題, 其實仍然是目前最active的research topics. 但有部分仍可以大家分享討論.
1. 關於20種reasonings.
這20種reasonings, 其實已經應用在我們會一個人, 每一日的生活當中, 只是大家可能並不知道, 而通常受過訓練或學習過的, 他才會知道自己原來是用緊某一條的reasoning. 相反, ai到今日為止的最新模型, 90%仍然主要依賴Inductive Reasoning.
2. 人類的四種特殊能力, 暫時ai仍然做不到的包括:
a. Partial Understanding: 人類只要學懂一部分規則, 就可以開始運作, 例如, 好似捉象棋/圍棋, 我們其實並不需要學識所有的規則, 但已經可以開始玩.
b. Intent Clarification: 當別人問我問題, 如果我唔明白佢問乜嘢, 我會不斷追問, 澄清, 直到我明白為止, 才開始作答. 但ai無論你講到幾深入, 或者幾淺, 佢唔會同你澄清, 而直接作答. 咁當然, 如果你畀嘅問題唔清晰, 佢嘅答案, 就會不對題.
c. Incubation: 當我們在學習新的知識是, 往往我們不能馬上明白, 但很神奇, 我們可能將這不明白的東西放下, 去一去洗手間, 飲杯咖啡, 或者瞓過覺, 一覺醒來, 突然之間, 一切都明白了. 為什麼? 因為人有五種腦電波, 當我們正在集中精神學習時, 主要是高頻的Gamma/Beta waves主導著我們的腦部運作, 也阻止了我們腦部各個部分的合作; 當我們take a break, 注意力開始放鬆, 腦部也從之前的waves, 改為低頻的 Theta/Delta waves, 主要是令我們的腦部開始進入知識的consolidation狀態, 將我們的腦神經網絡重組, 當時機成熟, 新重組的網絡神經, 便能明白到剛剛不明白的知識. ai 到目前為止, 係完全冇這種能力.
d. Serendipitous Analogy: 這個和(c)有些相似, 但, 這次神經網絡在重組過程, 需要外部新資訊, 令網絡重組出一個全新的架構, 從而明白剛剛不明白知識. 所以我們成日講, 和某某吹完水之後, 突然之間就明白了某些道理. 同樣, ai到目前為止, 係完全沒有這能力.
3. 關於這段news, 因為是轉載, 沒有原文, 我不敢說這位學者的意見是正確與否, 但, 這news的轉載解釋, 與真實情況相差頗遠.
- "Goldstein 與同事示範,步驟會依序展開,與 AI 模型處理語言步驟呼應。"
這點應該反轉來說, 是ai模型像人類的步驟, 而不是人類像ai的步驟.
- "人類大腦活動也是相同模式:早期神經訊號對應 AI 模型較淺層處理階段,較晚期大腦反應對應模型較深處理層。時間對應在較高階語言區域(如布若卡氏區)特別明顯;反應出現較晚,卻與 AI 模型較深層表徵最吻合。"
需要更多資料補充, 但從表面上看, 如果你問一位Brain Sci的學者, 如只看這幾句, 大機會他會說是錯的. 人的腦部非常複雜, 不論從解剖學, 或Neuronscience角度, 目前的ai模型, 只是人腦裏面的其中一個模塊, 而並不是整個人的腦部.
- "Goldstein 博士表示:「最驚訝的是,大腦逐步展開意義的方式,竟然這麼接近大型語言模型轉換序列的步驟。儘管兩者構造完全不同,但似乎都朝相似、一步步建立理解的過程靠近。」"
這句恐怕也是要反轉來看了, 是大語言模型相似人腦部的部分運作, 而不是人腦似大語型模型.
科技發展迅速, 大語言模型在不到十年間 (從Self-Attention開始算起), 由零開始到現在, 已差不多走到盡頭. 目前的大模型主要只能是部分的效能提升, 真正的technology breakthrough, 大家方向, 已從transformer轉為neuro-symbolic AI模型.
"LLM development is experiencing a significant "scaling wall" as increasing model size, data, and compute yield diminishing performance gains. The era of easy gains from scaling is stalling, with evidence suggesting that current architectures are approaching their limits in reasoning and data consumption."
我也很期待, 未來新一代的ai模型, 能帶給我們更像人類的智慧!
|
|