機械学習のための数学基礎の基礎まとめ【自然対数】

この記事を読むのに必要な時間は約 6 分です。

この記事を読むのに必要な時間は約 6 分です。

最近激アツな人工知能、機械学習、ディープラーニングを勉強しよう!!!

でも、結局数学の知識が足りず、数式の意味が分からず付いていけなくなり妥協してしまった。。。。

 

今回は、このような方のために機械学習のための数学の基礎の基礎である自然対数についてまとめました。

 

この記事を書いている僕はシステムエンジニア6年目

 

普段はJavaでWebアプリを作ったりSQL書いたり・・・、

なので最近流行りのPython、数学、人工知能、デープラーニングができる人には正直憧れています。。。。

 

 

自分も一から勉強してこの辺りできるようになりたい、、画像認識モデルを作ったりして、アプリに組み込みたい!

これが機械学習、深層学習の勉強を始めたきっかけでした。

 

 

体系的に、この分野の基礎から学ぼうとJDLAのG検定の勉強をして合格するところまでいきました。

次のステップとして、

実際にPythonでコードを書きながら機械学習や深層学習の知識を深めようと考え、これら買って勉強してみたのですが、、、

 

 

学生時代に勉強したはずの数学を忘れてしまっていて、機械学習の勉強以前にでつまずきました。。。

 

今回は、機械学習とディープラーニングの勉強をしていて、

復習が必要と感じた部分、抑えておくべきと感じた数学の基礎である自然対数についてまとめてみました。

 

自然対数

 

 

まず、自然対数の公式は以下です。

 

【公式】 ネイピア数\(e\)(自然対数の底)

 

$$e = \displaystyle \lim_{ n \to \infty } (1 + \frac{1}{n})^{n} = 2.718281…$$

 

上の公式をみると、少しむず分かりずらい式ですが。。。

一番重要なのは\(e \approx 2.7 \)ということです。

 

式の中で\(e\)が出たら\(2.7\)くらいの数値と捉えられるようになることが必要です。

 

 

また、\(\displaystyle \lim_{ n \to \infty } \)は\(n\)を無限大に近づけるという意味を表します。

極限まで\(n\)を無限大まで近づけると\((1 + \frac{1}{n})^{n}\)は一定の値(2.718281…)に近づくことを上の式は表しています。

 

これをネイピア数自然対数の底と呼び、\(e\)と表します。

\(e\)を底とする対数を自然対数といい、\(log_{e}\)を省略して\(\ln x\)と表します。

 

ネイピア数には便利な性質があり、

例えば、\(\frac{ d }{ dx }e^x = e^x\)(つまり、\(e^x\)を微分しても同じ値のまま)や、

\(\frac{d}{dx} \ln x = \frac{1}{x}\)などがあります。

 

また、ネイピア数は自然対数の底にも用いられ(\(e^x\)など)その際、\(e\)を底とする指数関数\(e^x\)を\(\exp x\)や\(\exp(x)\)と表す事もあります。

 

まとめ

 

 

今回はネイピア数(自然対数の底)について確認しました。

以下抑えておきましょう。

  • ネイピア数は\(e\)と表し、\(e \approx 2.7 \)
  • ネイピア数を底とする自然対数は\(\ln\)、ネイピア数を底とする指数関数は\(\exp x\)と表すことがある
  • ネイピア数には便利な特徴がある(\(\frac{ d }{ dx }e^x = e^x\)や、\(\frac{d}{dx}\ln x = \frac{1}{x}\))

 

参考資料

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください