bard182 Asked:2020-05-18 03:50:42 +0000 UTC2020-05-18 03:50:42 +0000 UTC 2020-05-18 03:50:42 +0000 UTC 如何用一个隐喻来描述最大似然法的本质? 772 我是否正确理解 MMP 与梯度下降方法相反(并且相似)并且它们可以相互替换?但是我们想要“最大化利润”而不是“损失最小化”?或者,打个比方,我们不想寻找底部,而是想要攀登最高的山峰? машинное-обучение 1 个回答 Voted Best Answer passant 2020-05-18T23:59:26Z2020-05-18T23:59:26Z 我不会这么说的。 事实上,梯度下降法只是解决优化问题的一种“技术”方法。顺便说一句——当然,它被称为“梯度下降”,但实际上,通过改变符号,它既解决了最小化问题,也解决了最大化问题。以及任何此类任务。在实践中,它回答了特定公式优化问题中“如何得到结果”的问题。 但是最大似然的方法 - “方法论”。那些。它描述了如何将一些实际问题简化为优化问题。在实践中,他会说什么以及 - 最重要的是 - 为什么你需要这样做才能获得结果。 请注意,将问题简化为优化问题后,我们完全没有义务继续使用梯度下降。例如,回归和其他一些问题通常可以在不涉及梯度下降的情况下解决。 梯度下降是幸运的。首先,它显然更容易理解。其次,美丽的类比经常被用来解释它——山脉、倾盆大雨、滑雪等。总的来说,它可以“在手指上”进行解释,几乎不需要数学——至少在第一个近似值中。但是要理解 MMP,即使是最肤浅和近似的,也有必要或多或少认真地沉浸在数学和概率论中(一般来说,尤其是其中的一些特殊部分)。同时,没有美感和外在效果。就像那样,这种方法无法即时解释。虽然在重要性和基础性上,无疑比梯度下降法高出几个数量级。 如果您想了解 MMP 是什么,请至少查看一些文章 https://towardsdatascience.com/search?q=maximum%20likelihood%20estimation 或者这是另一个 https://machinelearningmastery.com/what-is-maximum-likelihood-estimation-in-machine-learning/
我不会这么说的。
事实上,梯度下降法只是解决优化问题的一种“技术”方法。顺便说一句——当然,它被称为“梯度下降”,但实际上,通过改变符号,它既解决了最小化问题,也解决了最大化问题。以及任何此类任务。在实践中,它回答了特定公式优化问题中“如何得到结果”的问题。
但是最大似然的方法 - “方法论”。那些。它描述了如何将一些实际问题简化为优化问题。在实践中,他会说什么以及 - 最重要的是 - 为什么你需要这样做才能获得结果。
请注意,将问题简化为优化问题后,我们完全没有义务继续使用梯度下降。例如,回归和其他一些问题通常可以在不涉及梯度下降的情况下解决。
梯度下降是幸运的。首先,它显然更容易理解。其次,美丽的类比经常被用来解释它——山脉、倾盆大雨、滑雪等。总的来说,它可以“在手指上”进行解释,几乎不需要数学——至少在第一个近似值中。但是要理解 MMP,即使是最肤浅和近似的,也有必要或多或少认真地沉浸在数学和概率论中(一般来说,尤其是其中的一些特殊部分)。同时,没有美感和外在效果。就像那样,这种方法无法即时解释。虽然在重要性和基础性上,无疑比梯度下降法高出几个数量级。
如果您想了解 MMP 是什么,请至少查看一些文章
https://towardsdatascience.com/search?q=maximum%20likelihood%20estimation
或者这是另一个
https://machinelearningmastery.com/what-is-maximum-likelihood-estimation-in-machine-learning/