Overcoming catastrophic forgetting in neural networks

Deepmind又一最新力作,克服了網絡學習的「災難性遺忘」問題:當你讓一個模型學會A,又再讓他學會B時,他已經忘記了A怎麼做。而理論上,當參數空間足夠大時,就讓我們可能找到一組兼容A與B的配置。出於這樣的直覺,Deepmind對這一個經典的問題提出了一個解決方案。此文將扼要地說明論文的內容與背景。

[Link] http://rylanschaeffer.github.io/content/research/overcoming_catastrophic_forgetting/main.html

[Paper] http://www.pnas.org/content/early/2017/03/13/1611835114.full.pdf

 

Share the joy
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

近期文章

近期迴響

彙整

分類

其它

leoyang Written by:

Be First to Comment

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *