Mixture-of-expert Nov 28th, 2013 摘要: MOE是分片混合算法的集大成,阿里系所谓MLR并不是发明,而是取了MOE的一个特例,这里讨论MOE的博大精深 算法描述 应用场景 优缺点