■開発目的
GPT-3ベースの自然言語処理が大流行しているがGPT-3の高精度モデルは1750億パラメータ。パラメータが4バイトとすると読み込むだけでも700GBのRAMが必要となる。
最先端の大規模言語モデルPaLMはGPT-3の3倍以上、5400億パラメータ。GPT-4では5000億から数兆パラメータ(4Tバイト以上のRAMが必要)と推定されている。
最先端のAIはクラウドベースで使うことが前提となっている。
個人的に使おうとしても、100万円超のGPUを数十台、大工場並みの電力供給を揃えることのできる人や組織は、それほど多くはないだろう。
当社の技術は、ChatGPT API利用アプリケーションを除いて、既存のシステムに深層学習AIの推論部分だけを組み込むための技術に特化している。
推論部分はGPU無しでも高速で動作する。
学習は24ギガバイトクラスのGPUを使っている。
提供する技術は全て実際に販売しているアプリケーションに組み込んだ実績がある。
以下のような要望に対応することができる。
Webアプリではなく、クライアントサイドでスタンドアローン実行したい
GPU利用なしの32bit環境でも、深層学習AIを使いたい
マルチスレッドで深層学習AIを高速化したい
一台のサーバーで20プロセス以上の深層学習AI対応アプリを実行したい
Pythonではなく、C++/C#/C言語等から深層学習AIを利用したい
■開発実績学習部分はTensorflow+Keras等でGPUを使うことが前提となっている。学習済みパラメータのみを使った推論プログラム(GPU不要)を既存のC++/C#/Javaシステムから呼び出すというスタイルで開発を行っている。以下のような開発実績がある(開発中のものを含む)。
具体的には、小学生向けの高度な文章題を方程式を使わないで解いて、答えを導くまでのプロセスをテキストで提示するチャットプログラムを開発している。 精度は、ChatGPT+GPT-4よりも高い。比較検証のためにChatGPTモデルをファインチューンしたカスタマイズモデルも開発している。 |
■Denoising Autoencoderいわゆる深層学習ブームの先駆けとなった。用途を問わない汎用の深層学習モデル名刺の認識結果のテキストを分類(法人名、姓名、所属、肩書き、郵便番号、住所、電話番号、E-mail等)する機能に利用実績有り
|
■CNN(Convolutional Neural Network)画像認識向けのモデル。画像認識に対してはDenoising Autoencoderよりも学習が速く、推論精度も高い地図上の記号認識に利用実績あり 文字認識ライブラリの深層学習対応で利用実績有り
|
■word2vec自然言語処理向けのモデル単語の分散表現を取得することで、文章を多次元ベクトルの配列で表現することができる。多次元ベクトルは、そのまま深層学習の入力データとして利用することができる。 文字認識ライブラリの言語処理で利用実績有り
|
■大規模言語モデルのファインチューン大規模言語モデルのAPI対応アプリケーション本システムは、クラウドアプリケーションで、ローカル実行には対応していない。
|