トップページ -> データベース関連技術 -> 顔検知、顔識別 -> 顔識別(chen0040/keras-face,Python,TensorFlow 1.15 を使用)
[サイトマップへ], [サイト内検索へ]

顔識別(chen0040/keras-face,Python,TensorFlow 1.15 を使用)

次で配布されているソフトウエア

https://github.com/chen0040/keras-face

これは,顔検証と顔識別のソフトウエア.DeepFace, VGG16 + Siamese を使用.

手順の要点: Python 3.6, TensorFlow 1.15, Python の仮想環境(Windows では C:\venv\tf115py36)

ソフトウエア等の利用条件は,利用者で確認すること.

謝辞:ソフトウエアの作者に感謝します


前準備

Python 3.6 のインストール,pip と setuptools の更新

※ TensorFlow 1.15.3 に対応する Python は,3.6 や 3.7 など(3.8 は対応していない)(2020/06 時点).このページでは 3.6 を使って説明する.3.7 でも同様の手順になる.

Windows の場合

  1. Python 3.6 のインストール

    Python の URL: http://www.python.org/

    インストール手順の詳細は: 別ページで説明している.

  2. pip と setuptools の更新

    コマンドプロンプトを管理者として実行し,次のコマンドを実行.

    py -3.6 -m pip install -U pip setuptools
    

    [image]

Ubuntu の場合

次の手順により,システム Python とは別に,pyenv を用いて Pytnon 3.6 をインストールする.(システム Python の設定は変えたくないため).

  1. pyenv のインストールと設定

    図などの入った詳しい説明は別ページ

    sudo apt -yV install --no-install-recommends make build-essential libssl-dev zlib1g-dev libbz2-dev libreadline-dev libsqlite3-dev wget curl llvm libncurses5-dev xz-utils tk-dev libxml2-dev libxmlsec1-dev libffi-dev liblzma-dev
    cd /tmp
    curl https://pyenv.run | bash
    echo 'export PYENV_ROOT="${HOME}/.pyenv"' >> ~/.bashrc
    echo 'if [ -d "${PYENV_ROOT}" ]; then' >> ~/.bashrc
    echo '    export PATH=${PYENV_ROOT}/bin:$PATH' >> ~/.bashrc
    echo '    eval "$(pyenv init -)"' >> ~/.bashrc
    echo '    eval "$(pyenv virtualenv-init -)"' >> ~/.bashrc
    echo 'fi' >> ~/.bashrc
    exec $SHELL -l
    
  2. 次のコマンドにより,pyenv を用いて Python 3.6.10 をインストール
    pyenv install 3.6.10
    

    [image]
  3. Ubuntu では端末を開く.
  4. pyenv の Python 3.6 の有効化. pip と setuptools の更新

    次のコマンドを実行.

    pyenv shell 3.6.10
    python -m pip install -U pip setuptools
    

Git のインストール

Git の URL: https://git-scm.com/

(Windows を使う場合のみ)Visual C++ ビルドツール (Build Tools) のインストール

Windows で Visual C++ ビルドツール (Build Tools) for Visual Studio 2017 のインストール(Chocolatey を利用)」で説明している.

以下,Windows に Python, git, Visual C++ ビルドツール (Build Tools) をインストール済みであるものとして説明を続ける.

(NVIDIA GPU を使うとき)NVIDIA グラフィックスボード・ドライバのインストール

GPU とは,グラフィックス・プロセッシング・ユニットの略で、コンピュータグラフィックス関連の機能,乗算や加算の並列処理の機能などがある.

ダウンロードページ

詳細説明

(NVIDIA GPU を使うとき)NVIDIA CUDA ツールキット 10.0 のインストール

CUDA とは,NVIDIA社が提供している GPU 用のプラットフォームである. ダウンロードページ

TensorFlow 2.1 以上の GPU 版での,NVIDIA CUDA のバージョンは 10.1指定されている. TensorFlow 1.15の GPU 版での,NVIDIA CUDA のバージョンは 10.0指定されている. 指定されているバージョンより高いものは使わない. その根拠は次のページ. URL: https://www.tensorflow.org/install/source#common_installation_problems

詳細説明

(NVIDIA GPU を使うとき)NVIDIA cuDNN のインストール

ダウンロードページ

次のページには,TensorFlow 2.1 以上の GPU 版での,cuDNN のバージョンは 7.6.そして,TensorFlow 1.13 以上 TensorFlow 2.0 までの GPU 版での,cuDNN のバージョンは7.4 が指定されている.

URL: https://www.tensorflow.org/install/source#common_installation_problems

詳細説明


隔離された Python 仮想環境の新規作成と,TensorFlow 1.15.3(旧バージョン)およびPython 開発環境(JupyterLab, spyder)のインストール

最新版ではない TensorFlow を使う.そうした場合,運用を簡単にする(バージョン指定のもの間違ってアップデートしないなど)のために,venv を用いて,隔離された Python 仮想環境を作る.

今から作成する隔離された Python 仮想環境の名前と、Pythonのバージョンを決めておく

ここで行う「隔離された Python 仮想環境の新規作成と,TensorFlow 1.15.3(旧バージョン)のインストール」ついては,より詳しくは,次のページで説明している.

Windows の場合

  1. Python 3.6 の準備

    Windows での Python 3.6 の準備は,このページの上の方で説明している.

  2. コマンドプロンプトを実行.
  3. venv を用いて,Python 3.6 が動く隔離された Python 仮想環境を作る.

    下の例では,隔離された Python 仮想環境のためのディレクトリを C:\venv\tf115py36に作成している.

    py -3.6 -m venv C:\venv\tf115py36
    

    [image]
  4. venv の隔離された Python 仮想環境を有効化,TensorFlow 1.15.3 のインストール,Python 開発環境(JupyterLab, spyder)のインストール

    venv を使い,孤立した Python 仮想環境を使っているときは,Windows でも Ubuntu でも同じで,「python -m pip install ...」. いま,venv を使っているかどうかは,プロンプトの「(venv)」で分かる.

    C:\venv\tf115py36\Scripts\activate.bat
    python -m pip install -U pip setuptools
    python -m pip install -U tensorflow-gpu==1.15.3 tensorflow_datasets
    python -m pip install -U jupyterlab jupyter jupyter-console jupytext spyder
    

    [image]

    [image]
    (以下省略)

Ubuntu の場合

  1. Python 3.6 の準備

    Ubuntu での Python 3.6 の準備は,このページの上の方で説明している.

  2. Ubuntu では端末を開く.
  3. venv を用いて,Python 3.6 が動く隔離された Python 仮想環境を作る.

    下の例では,隔離された Python 仮想環境のためのディレクトリを ~/tf115py36に作成している.

    pyenv shell 3.6.10
    python -m venv ~/tf115py36
    

    [image]
  4. venv の隔離された Python 仮想環境を有効化,TensorFlow 1.15.3 のインストール,Python 開発環境(JupyterLab, spyder)のインストール

    venv を使い,孤立した Python 仮想環境を使っているときは,Windows でも Ubuntu でも同じで,「python -m pip install ...」. いま,venv を使っているかどうかは,プロンプトの「(venv)」で分かる.

    source ~/tf115py36/bin/activate
    python -m pip install -U pip setuptools
    python -m pip install -U tensorflow-gpu==1.15.3 tensorflow_datasets
    python -m pip install -U jupyterlab jupyter jupyter-console jupytext spyder
    

    [image]

TensorFlow の確認

  1. 隔離された Python 仮想環境有効化
  2. TensorFlow のバージョン確認

    ※ バージョン番号が表示されれば OK.下の図とは違うバージョンが表示されることがある.

    python -c "import tensorflow as tf; print( tf.__version__ )"
    

    [image]
  3. (GPU を使うとき) GPU が認識できてるかの確認

    TensorFlow が GPU を認識できているかの確認は,端末で,次を実行して行う.

    python -c "from tensorflow.python.client import device_lib; print(device_lib.list_local_devices())"
    

    [image]

顔識別(chen0040/keras-face,Python,TensorFlow 1.15 を使用)

Windows での手順を下に示す.Ubuntu でも同様の手順になる.

  1. Windows では,コマンドプロンプトを実行.Ubuntu では端末を開く.
  2. 隔離された Python 仮想環境有効化

    以下,Windows での手順を示す.Ubuntu でも同様の手順になる.

  3. chen0040/keras-face のダウンロード

    cd C:\venv\tf115py36
    rmdir /s /q keras-face
    

    [image]

    git clone https://github.com/chen0040/keras-face
    cd keras-face
    

    [image]
  4. 前提パッケージのインストール

    python -m pip install -r requirements.txt
    

    [image]
  5. ファイルの移動

    C:\venv\tf115py36\keras-face\demo にあるファイルを丸ごと、

    C:\venv\tf115py36\keras-face移動

    その結果、次のようになる

    [image]
  6. data\images の下に、顔写真のファイルがあるので確認する

    [image]
  7. ファイルの編集

    エラーの回避のため.keras_face\library\face_net.py を次のように書き換える

    「np.set_printoptions(threshold=np.nan)」を削除

    [image]

    Python プログラムを動かす.

  8. ディレクトリの移動

    cd C:\venv\tf115py36
    cd keras-face
    

    [image]
  9. デモプログラム DeepFace を実行してみる

    このプログラムは camera_0.jpg が誰なのかを顔識別する。

    [image]

    GitHub の chen0040/keras-face の Web ページに記載されている次のプログラムを実行

    from keras_face.library.face_net import FaceNet
    def main():
        model_dir_path = './models'
        image_dir_path = "./data/images"
        #
        fnet = FaceNet()
        fnet.load_model(model_dir_path)
        #
        database = {}
        database["danielle"] = fnet.img_to_encoding(image_dir_path + "/danielle.png")
        database["younes"] = fnet.img_to_encoding(image_dir_path + "/younes.jpg")
        database["tian"] = fnet.img_to_encoding(image_dir_path + "/tian.jpg")
        database["andrew"] = fnet.img_to_encoding(image_dir_path + "/andrew.jpg")
        database["kian"] = fnet.img_to_encoding(image_dir_path + "/kian.jpg")
        database["dan"] = fnet.img_to_encoding(image_dir_path + "/dan.jpg")
        database["sebastiano"] = fnet.img_to_encoding(image_dir_path + "/sebastiano.jpg")
        database["bertrand"] = fnet.img_to_encoding(image_dir_path + "/bertrand.jpg")
        database["kevin"] = fnet.img_to_encoding(image_dir_path + "/kevin.jpg")
        database["felix"] = fnet.img_to_encoding(image_dir_path + "/felix.jpg")
        database["benoit"] = fnet.img_to_encoding(image_dir_path + "/benoit.jpg")
        database["arnaud"] = fnet.img_to_encoding(image_dir_path + "/arnaud.jpg")
        #
        # verifies whether a particular camera image is a person in the image database
        dist, is_valid = fnet.verify(image_dir_path + "/camera_0.jpg", "younes", database)
        print('camera_0.jpg is' + (' ' if is_valid else ' not ') + 'yournes')
        dist, is_valid = fnet.verify(image_dir_path + "/camera_2.jpg", "kian", database)
        print('camera_0.jpg is' + (' ' if is_valid else ' not ') + 'yournes')
        #    
        # whether a particular camera image is which person in the image database (or not at all)
        dist, identity = fnet.who_is_it(image_dir_path + "/camera_0.jpg", database)
        if identity is None:
            print('camera_0.jpg is not found in database')
        else:
            print('camera_0.jpg is ' + str(identity))
    
    if __name__ == '__main__':    main()
    

    [image]
  10. 実行結果を確認する

    顔識別の結果が表示される

    [image]
  11. デモプログラム VGG16 + Siamese の学習 を実行してみる

    このプログラムは、VGG16 + Siamese の学習を行うプログラムである。

    ※ 1つ前のプログラムは、DeepFace 法(つまり別もの)

    データのダウンロードと、学習を行うので時間がかかる

    from keras_face.library.siamese import SiameseFaceNet
    def main():
        fnet = SiameseFaceNet()
        fnet.vgg16_include_top = True # default is False
        #
        model_dir_path = './models'
        image_dir_path = "./data/images"
        #
        database = dict()
        database["danielle"] = [fnet.img_to_encoding(image_dir_path + "/danielle.png")]
        database["younes"] = [fnet.img_to_encoding(image_dir_path + "/younes.jpg")]
        database["tian"] = [fnet.img_to_encoding(image_dir_path + "/tian.jpg")]
        database["andrew"] = [fnet.img_to_encoding(image_dir_path + "/andrew.jpg")]
        database["kian"] = [fnet.img_to_encoding(image_dir_path + "/kian.jpg")]
        database["dan"] = [fnet.img_to_encoding(image_dir_path + "/dan.jpg")]
        database["sebastiano"] = [fnet.img_to_encoding(image_dir_path + "/sebastiano.jpg")]
        database["bertrand"] = [fnet.img_to_encoding(image_dir_path + "/bertrand.jpg")]
        database["kevin"] = [fnet.img_to_encoding(image_dir_path + "/kevin.jpg")]
        database["felix"] = [fnet.img_to_encoding(image_dir_path + "/felix.jpg")]
        database["benoit"] = [fnet.img_to_encoding(image_dir_path + "/benoit.jpg")]
        database["arnaud"] = [fnet.img_to_encoding(image_dir_path + "/arnaud.jpg")]
        #
        fnet.fit(database=database, model_dir_path=model_dir_path)
    
    if __name__ == '__main__':    main()
    

    [image]
  12. 実行結果を確認する

    エラーメッセージが出ていないこと

    [image]
  13. デモプログラム VGG16 + Siamese による顔判定 を実行してみる

    このプログラムは、VGG16 + Siamese の学習の結果を使うもの

    このプログラム camera_0.jpg が誰なのかを顔識別する。

    [image]
    from keras_face.library.siamese import SiameseFaceNet
    from functools import partial
    import numpy as np
    np.load = partial(np.load, allow_pickle=True) 
    def main():
        fnet = SiameseFaceNet()
        #
        model_dir_path = './models'
        image_dir_path = "./data/images"
        fnet.load_model(model_dir_path)
        #
        database = dict()
        database["danielle"] = [fnet.img_to_encoding(image_dir_path + "/danielle.png")]
        database["younes"] = [fnet.img_to_encoding(image_dir_path + "/younes.jpg")]
        database["tian"] = [fnet.img_to_encoding(image_dir_path + "/tian.jpg")]
        database["andrew"] = [fnet.img_to_encoding(image_dir_path + "/andrew.jpg")]
        database["kian"] = [fnet.img_to_encoding(image_dir_path + "/kian.jpg")]
        database["dan"] = [fnet.img_to_encoding(image_dir_path + "/dan.jpg")]
        database["sebastiano"] = [fnet.img_to_encoding(image_dir_path + "/sebastiano.jpg")]
        database["bertrand"] = [fnet.img_to_encoding(image_dir_path + "/bertrand.jpg")]
        database["kevin"] = [fnet.img_to_encoding(image_dir_path + "/kevin.jpg")]
        database["felix"] = [fnet.img_to_encoding(image_dir_path + "/felix.jpg")]
        database["benoit"] = [fnet.img_to_encoding(image_dir_path + "/benoit.jpg")]
        database["arnaud"] = [fnet.img_to_encoding(image_dir_path + "/arnaud.jpg")]
        #
        fnet.verify(image_dir_path + "/camera_0.jpg", "younes", database)
        fnet.verify(image_dir_path + "/camera_2.jpg", "kian", database)
        fnet.who_is_it(image_dir_path + "/camera_0.jpg", database)
    
    if __name__ == '__main__':    main()
    

    [image]
  14. 実行結果を確認する

    顔識別の結果が表示される

    [image]

本サイトは金子邦彦研究室のWebページです.サイトマップは,サイトマップのページをご覧下さい. 本サイト内の検索は,サイト内検索のページをご利用下さい.

問い合わせ先: 金子邦彦(かねこ くにひこ) [image]