ニューラルネットワークを用いた 連続量をもつ時系列信号の認識

「工学分野における微生物並びに生体機能の応用に関する研究」
平成3年度特定研究研究成果報告書(HTML版)
奈良工業高等専門学校、平成4年3月

奈良工業高等専門学校

電気工学科  土井 滋貴  

要約

 本研究では、パーソナルコンピュータ上でニューラルネットワークをシュミレートすることにより、連続量をもつ時系列信号処理へのいくつかの応用について検討を行う。

 筆者は従来よりマルチスケール記述(Multiscale Description)の考え方に基ずく信号処理について研究を行なっている。はじめに、そのマルチスケール記述された信号から取り出せる特徴の認識にニューラルネットワークの導入を試み、その結果について述べる。

 次に、生活環境に関する研究の一環としての睡眠の状態の検出方法について、その状態判定のための信号処理にニューラルネットワークの導入を試み、その結果について述べる。

 両応用例とも、ニューラルネットワークを利用した信号処理方法の有効性が確かめられた。

 

               1.まえがき

 

 計算機を利用したいわゆる情報処理や信号処理といった分野ではノイマン型で代表される逐次処理型計算機もしくは計算アルゴリズムの処理の能力の限界が見え始めている。そこでこれらに代わる新しい計算機アーキテクチュアとして生物的な視点に立ついくつかの試みが注目されている。その代表の1つがニューラルネットワークである。筆者はこのニューラルネットワークを信号処理系の一部として利用することを提案し検討してきた。

 一般に工学とくに計算機等をあつかう分野では、ニューラルネットワーク( Neural network)とは、脳の基本素子ニューロン(Neuron:神経細胞)やそれらが結合した生物本来のニューラルネットワーク(神経回路網)の構造や情報処理メカニズムにヒントを得て、脳の持つ優れた情報処理能力の人工的実現を目指す手法をいう。

 現在コンピュータで計算される問題の中には、近似解でも良いから計算速度が重要な問題が多数ある。既存のコンピュータが分析的方法により厳密解を求めるのに対し、ニューラルネットワークは直感的な方法で近似解を求める。この点においてニューラルネットワークは有効であるといえる。

 具体的にニューラルネットワークを実現するためには、人間の脳をどのようにモデル化するかが問題となる。実際に、McCulloch とPitts によるニューロンの単純なモデル(形式ニューロンモデル)(1943) 以来、多くの研究者によって様々なモデルが考案されている。その中で現在、ポピュラーなものにホップフィールド(Hopfield)モデルとバックプロパゲーション(Back-propagation)モデルがある。

 両者の最も大きな違いは学習及び学習に伴うネットワーク上の荷重(シナプスウェイト)の変化にある。ホップフィールドモデルは正しい結果を得るために、人間があらかじめ計算をしてシナプスウェイトを設定しなければならず、一度設定されたシナプスウェイトは実行中変化することがない。それに対し、バックプロパゲーションモデルは、学習データとその解答のペアを与えるだけで自律的に学習を行い、正しい結果が得られるようにシナプスウェイトを自動的に変化させる。

 本研究では、このバックプロパゲーションモデルの持つ学習能力に着目し、バックプロパゲーションモデルをシミュレートできるプログラムにより、時系列信号の特徴認識およびパターン認識を行う。

 

    2. ニューラルネットワークとバックプロパゲーションモデル

 

2.1 ニューロンモデル

 人間の脳細胞は、核が存在する細胞体、多くの枝がありニューロンの入力部である樹状突起、信号伝送路である軸索、ニューロン出力部のシナプス等から構成される多入力-1出力の非線形素子である。

 このニューロンモデルは、式 (2.1.1),(2.1.2) に示すように、各シナプスの入力 xi とそのシナプスとニューロンの結合の重み(シナプスウェイト) Wi との積の総和を入力 X とする。そして、入力に対して入出力関数 f(x) を計算した結果を出力 Y とする。

 

    ニューロンの入力 : X = Σi xi・Wi          (2.1.1)

    ニューロンの出力 : Y = f(X)             (2.1.2)

 

            xi  : シナプス si の入力

            Wi  : シナプス si とニューロンの

                 シナプスウェイト

            f(x) : ニューロンの入出力関数

 

2.2 多層構造ニューラルネットワーク

 ニューロンモデルを用いたネットワークには様々なものが考案されている。その中で本研究では、バックプロパゲーションアルゴリズムを用いるために、多層構造ニューラルネットワークを用いる。

 このネットワークは、ニューロンが入力層,中間層,出力層というように層を形成し、各層の各ニューロンは次層の全てのニューロンとシナプス結合しておりフィードバック結合は存在しない。これに基づいて前節の式 (2.1.1),(2.1.2) を用いると、多層構造ニューラルネットワークにおける各ニューロンの入出力の関係は式 (2.2.1),(2.2.2) によって示される。

 

    ニューロン i の入力 :Xi = Σj Yj・Wij        (2.2.1)

    ニューロン i の出力 :Yi = f(Xi)           (2.2.2)

 

            Yj  : 前層ニューロン j の出力

            Wij : ニューロン i と前層ニューロン j 間の

                 シナプスウェイト

             f(x) : ニューロンの入出力関数

 

 入出力関数 f(x) には、本研究では式 (2.2.3) に示すような、シグモイド関数と呼ばれる微分可能な非線形関数を用いる。

 

 

    シグモイド関数 :

        f(x) = 1/{1+exp(-x)}        (2.2.3)

 

 ネットワークの入力層に入力信号(文字パターン等)を入力すると、式 (2.2.1)!(2.2.3) に従って入力層から出力層へ向かって各ニューロンの出力が順次計算される。そして、出力層ニューロンの中で最も大きく反応している、つまり出力の最も大きいニューロンがその入力に対する認識結果となる。

 

2.3 バックプロパゲーションアルゴリズム

 バックプロパゲーションアルゴリズム(逆伝搬学習則)は、多層構造ニューラルネットワークのために考案されたアルゴリズムで、教師信号付き学習則の1つである。

 このアルゴリズムの基本は、式 (2.2.1)〜(2.2.3) によって得られた出力層各ニューロンの出力と教師データつまり、入力信号に対するそのニューロンの望ましい出力との比較である。学習によって、式 (2.3.1) で示される教師データと実際の出力との二乗誤差を極小化するように、即ち実際の出力が望ましい出力に可能な限り近づくように、ネットワークのシナプスウェイトを変化させる。

 

    二乗誤差 : E = Σi (di−Oi)/2         (2.3.1)

 

            di : 出力層ニューロン i に対する教師信号

            Oi : 出力層ニューロン i の出力

 

 各シナプスウェイトの学習は、式 (2.3.2)〜(2.3.6) を用いて、認識の場合とは逆に出力層から入力層に向かって進行する。

 学習過程は、認識によって得られた出力と教師信号により式 (2.3.4) に従って、出力層各ニューロンの学習信号δを求めることに始まる。中間層各ニューロンの学習信号は式 (2.3.5) に従って、求めた出力層各ニューロンの学習信号により出力層から入力層に向かって再帰的に計算される。これは中間層が何層であっても同じである。

 各ニューロンの学習信号が求まれば、式 (2.3.2),(2.3.3) に従って、各シナプスウェイトは増加あるいは減少され、学習により得られた知識はシナプスウェイトとして暗示的に蓄積(記憶)される。

 

    ニューロン i と前層ニューロン j 間の修正後シナプスウェイト :

        Wij(n+1) = Wij(n)+ΔWij(n+1)        (2.3.2)

    ニューロン i と前層ニューロン j 間のシナプスウェイト修正量 :

        ΔWij(n+1) = η・δi・Yj + α・ΔWij(n)     (2.3.3)

    出力層ニューロン i の学習信号 :

        δi = (di−Oi)・f'(Xi)           (2.3.4)

    中間層ニューロン i の学習信号 :

        δi = f'(Xi)・Σk δk・Wki           (2.3.5)

    ニューロン入出力関数(シグモイド関数)の微分 :

        f'(x) = exp(-x)/{1+exp(-x)}    (2.3.6)

 

            n  : 学習のタイムステップ

            Wij : ニューロン i と前層ニューロン j 間のシナプスウェイト

            Yj : 前層ニューロン j の出力

            δi : ニューロン i の学習信号

             η  : 学習定数

             α  : 安定化定数

            di : 出力層ニューロン i に対する教師信号

            Oi : 出力層ニューロン i の出力

             δk : 次層ニューロン k の学習信号

            Wki : ニューロン i と次層ニューロン k 間のシナプスウェイト

 

 この学習過程を、いくつかの入力信号とそれに対応する教師信号のペアに対して繰り返し行うことにより学習が進行し、このネットワークは正しい認識ができるようになる。

 

 

          3.ニューラルネットワークを用いた

        マルチスケール記述された信号の特徴量判別法

 

3.1 スケール・スペース・フィルタリング

 筆者は、スケール・スペース・フィルタリング(Scale-Space Filtering)の応用として情報伝送方式フィンガープリント・パターン・キーイング(Fingerpri-nt Pattern Keying)を提案しており、音響信号を用いた水中情報伝送を検討している。これまで、このフィンガープリント・パターン・キーイングの復調にフィンガープリントの形状自体、すなわち幾何学的特徴の認識にニューラルネットワークを用いた例はすでに述べている1)。その概要を図3.1.1に示す。今回はフィンガープリントの特徴量、すなわち定量的特徴に注目する。これまでは、この特徴量の認識にファジィ推論を用い、特徴量の判別を行っていた2)。ここではこの特徴量判別にニューラルネットワークを用いた処理系を提案し、特徴量の分布とニューラルネットワークの学習との関連性を示す3)

 

 

         図3.1.1 フィンガープリントの形状認識

 

3.2 フィンガープリント・パターン・キーイングにおける特徴量

 フィンガープリント・パターン・キーイングでのフィンガープリントのパターンマッチングは次のように定義できる。

 

 ‖V,V‖≦Lth -> VはVとマッチする。

 else where   -> VはVとマッチしない。             (3.2.1)

 

ここで、Vは受信信号のフィンガープリントパターン、Vは基準フィンガープリントパターン、Lthはマッチング距離のしきい値、‖,‖はマッチング距離である。

 フィンガープリント・パターン・キーイングの変調における、異なるフィンガープリントパターンをもつ信号を、次に示すような2つの異なる周波数を持つ正弦波の合成波で考える。

 

 f(t)=Asin(2πf)+Asin(2πnf)                (3.2.2)

 

ここで、fは信号の基本周波数、nは2以上の自然数である。

 式(3.2.2)における信号をスケール・スペース・フィルタリング処理して得られるフィンガープリントには次に示すような特徴量が存在し、それを基にフィンガープリント・パターン・キーイングの復調を考える。

 フィンガープリントには、信号の変曲点を表す弧が存在する。この弧はフィンガープリントを構成する信号の変曲点の集合で、信号の持つ周波数成分に対して次のような2つの特徴に注目できる。

 

 T.弧の基底部における弧と弧の間隔

 U.弧の頂点の高さ                       (3.2.3)

 

弧と弧の間隔をwidth、弧の頂点の高さをheightとすると次のように定義される。

 

 width(t)={ |t-t | tはtよりも前方の最も近い弧の位置

              tはtよりも後方の最も近い弧の位置 } (3.2.4)

 height(t)={ h     | hはtにおける最も近い弧の頂点の高さ } (3.2.5)

 

この特徴量を利用してフィンガープリント・パターン・キーイングの復調を考える。まず、式(3.2.2)における周波数比n(i=1,2,・・・,m)に割り当てる情報をコードiと呼ぶことにする。mは自然数でコード数を表す。時間tにおいて信号f(t)のフィンガープリントより得られる特徴量である弧と弧の間隔width(t)、弧の頂点の高さheight(t)によってコードの区別を行うと

 

 |width(t)-w(n)|≦wLth  and  |height(t)-h(n)|≦hLth

  -> f(t)はコードiの情報を持つ。

  else where

  -> f(t)はコードiの情報を持たない。              (3.2.6)

 

と書くことができる。ここで、w(n),h(n)は、周波数比nのときの基準フィンガープリントの特徴量であり、wLth,hLthは特徴量マッチングのしきい値である。

 

3.3 ニューラルネットワークによる

    フィンガープリント・パターン・キーイング復調

 フィンガープリントの特徴量をニューラルネットによって認識させるためには特徴量をニューラルネットに取り込めるように特徴量データを変換する必要がある。弧と弧の間隔をwidth(t)、弧の頂点の高さをheight(t)とする。変換された特徴量データは次のように表すことにする。入力層ニューロンの入力をwidthについてはWI、heightについてはHIと表すと

 

 WI={ (0,1) |  1≦j≦widthのとき    1

          width<j≦wmaxのとき  0 }

 HI={ (0,1) |  1≦k≦heightのとき   1

           height<k≦hmaxのとき 0 }         (3.2.7)

 

となる。ここで、wmaxはwidthの最大値で、hmaxはheightの最大値である。

 この入力データに対するニューラルネットの出力は、コード数をmとすると出力層ニューロンの数もmとなり、出力層ニューロンの出力をoとすると

 

 

 o={ (0,1) |  入力データがコードiの特徴量を持っているとき  1,

         入力データがコードiの特徴量を持っていないとき 0,

         ただし、1≦i≦m        }        (3.2.8)

 

と表すことができる。

 学習データは式(3.2.6)の基準フィンガープリントの特徴量w(n),h(n)をコードiの持つ特徴量として求め、式(3.2.7)にしたがってパターン変換を行い、入力層に与える。また教師データはiの値に対して式(3.2.8)にしたがってパターン変換を行って出力層に与えることになる。その概略を図3.3.1に示す。

 

        図3.3.1 フィンガープリントの特徴量認識

 

3.4 シミュレーション及び実験による認識結果

 シミュレーションデータによる連続信号の認識の様子を図3.4.1に示す。

 

         図3.4.1 フンガープリントの連続認識

 

 シミュレーションによる認識率で、過去に提案した各認識システムと比較したものを表1に示す。条件は、フィンガープリント・パターン・キーイング変調信号の基本周波数成分の振幅とガウス性の雑音の分散の比を1:0.5, 1:1, 1:2の3種類で行った。

 

          表4.3.1 シミュレーションによる認識率











 


雑音
 

     認識率[%]

n.1   f.i  n.2  n.3

1:0.5

96.7  95.5  95.6  92.6

1:1

88.8  94.5  93.3  90.2

1:2
 

75.3  80.2  80.6  78.9
 










 

          n.1:ニューラルネット形状

          f.i:ファジィ推論(正規分布関数をメンバシップとする)

          n.2:ニューラルネット特徴量(2層)

          n.3:ニューラルネット特徴量(3層)

 

この表から、これまで提案してきた処理系と比較して同等の認識率が得られていることが分かる。2層、3層構造での比較では、層数による認識率の変化が少ないという結果が得られている。

 また、距離25[m]、基本周波数5[kHz]、周波数比1, 1:2の信号を用いた水中伝送実験では、96.7[%]という高い認識結果が得られた。

 

3.5 特徴量分布とニューラルネットワークの学習

 シミュレーション及び実験の認識結果により、特徴量を認識するニューラルネットワークが他の認識系とほぼ同等の性能が得られ、また、2層構造によるネットワークモデルでも、その性能に変わりがないことが確認された。そこで、2層構造のネットワークモデルにおける特徴量とネットワークの結合荷重との関係を次に示す。

 出力層ニューロンの応答関数をf、j番目のwidthに関する入力層ニューロンとi番目の出力層ニューロンとの結合荷重をWWji、k番目のheightに関する入力層ニューロンとi番目の出力層ニューロンとの結合加重をWHki、i番目の出力層ニューロンのしきい値をθとすると

 

 o=f(fw(width)+fh(height)+θ)               (3.5.1)

 

      width           height

 fw(width)=ΣWWji     fh(height)=ΣWHki      (3.5.2)(3.5.3)

       j=1            k=1

 

と書くことができる。ここで用いたネットワークでは出力層ニューロンの特性関数fは関数の引数が0以上であるか以下であるかの判定をしているだけであるとすると

 

 ff(width,height)= fw(width)+fh(height)+θ         (3.5.4)

 

と書ける。つまりff(width,height)≧0の範囲でコードiの信号の特徴量を選択していることになる。ffは学習によって得られるネットワークの結合荷重によって決定され、式(3.5.4)から特徴量の判別式を得ることができる。

 

       4. ニューラルネットワークによる入眠検知

 

4.1 入眠検知

 次に、ニューラルネットワークによるパターン認識の応用として、入眠検知を取り上げる。入眠検知については、筆者は赤外線センサ、超音波センサによる測定とファジィ推論による判定を組み合わせたものについて提案、検討してきた4)5)6)。そこで、本研究では入眠判定法としてニューラルネットワークを用いた入眠検知を試みる。

 これまでの筆者の研究では、睡眠の生体反応として現れる、睡眠状態と覚醒状態の体の動きの違いに着目し、体の動きを赤外線センサによって測定することによって、入眠判定を行っている。その概略を図4.1.1に示す。

 この考えに基づいて、赤外線センサによる測定データを用い、ファジィ推論による結果を教師データとして、ニューラルネットワークによる入眠検知について研究を行った7)

 

         図4.1.1 赤外線センサによる入眠検知

 

4.2 積算データを用いた入眠検知

 これまでの実験結果より、覚醒状態より睡眠状態になると、約 30分間、体の動きがなくなるなどのいくつかの傾向がわかってきている。そこで、一定時間内のサンプル値の総和を求め、その値を認識することとした。用いる積算データは、センサにより得られたデータを、認識を行う時点より、過去 20分間,過去 5分間,30分から 5分前まで、それぞれ積算したものである。

 積算データによる入眠検知は、これらの3つのデータの値を 128段階の棒グラフ状にパターン化して、この3つのパラメータのグラフパターンをニューラルネットワークによって認識することにより行う。各パラメータのパターン化を式で表わすと、式 (4.2.1) のようになる。ただし、Xij はパラメータ i に対応する入力層ニューロン j の入力で、Pi はパラメータ i の値である。又、N は量子化の段階数で、各パラメータの値は、最大値を N として正規化されているとする。

 

    Xij = { (0,1) | 0 ≦ j ≦ Pi ならば 1 ,

              Pi < j ≦ N ならば 0 }     (4.2.1)

 

         N = 128, 1≦i≦3, 1≦j≦N

 

 学習用データには、各状態の中心付近の積算データを取り出したものを、各 4組、計 12組用いた。使用したネットワークは、入力層:384、中間層:10、出力層:3 で、総シナプスウェイト数 3870 である。

 認識用データには、元データ、0.2秒間隔でサンプリングした8時間分のデータ144000点 より求めた積算データを、512点に圧縮したものを用いた。これにより、積算データのサンプリング間隔は 56.25秒となる。シミュレーションでは、この 512点の積算データを連続的に認識する。

 学習により得られたシナプスウェイト、及び、3種類の認識用積算データサンプルを用いて認識を行った結果の例を、図 4.2.1 に示す。図のグラフは、上から順に、入力積算データ(20分間,5分間,30分前から 5分前まで)、ファジィ推論による結果、ニューラルネットワークによる認識結果である。

 これらの結果より、ファジィ推論による結果とニューラルネットワークによる認識結果を比較すると、全く同じ結果を得ることはできなっかったが、大きな状態の変化については、ほぼ同様の結果を得ることができた。

 

 

 

           図 4.2.1 睡眠状態の判定例1

 

4.3 状態遷移の学習および認識

 先のニューラルネットワークによる認識結果には、大きな状態変化の他に、細かい状態変化も多数存在する。実際には、このように 1,2分間に睡眠状態が変化することは考え難く、この細かい状態変化を示す認識結果は正しくないと考えられる。

 つまり先の方法では、入力する3つのパラメータの値のみによって認識を行い、前の状態を考慮していない。しかし、入眠検知のような例では、パラメータの値だけでなく、前の状態が現在の状態に影響を与えることが考えられる。つまり、ノンレム睡眠の状態から覚醒状態へ急に変化することは極めて少ないと考えられる。そこで、この様な睡眠状態の遷移を,ニューラルネットワークによって学習,認識する必要がある。

 このような状態遷移を認識するために、認識時点の前の状態をフィードバックする方法を考る。この方法によって、前の状態と各パラメータ値によって認識を行うことが予測できる。一般に、バックプロパゲーションアルゴリズムは、シナプスウェイトのフィードバック結合がないネットワークで用いられる。従って、ネットワーク内の処理のみでフィードバックを行うことは難しい。

 そこで、認識結果を一時記憶しておき、それを次の入力のもう1つのパラメータとして、ネットワークに与えることにする。つまり、前認識結果を、他のパラメータと同様に扱うために、棒グラフ状にパターン化して各パラメータ入力と合わせ、これらのグラフパターンをニューラルネットワークにより認識する。

 このようなニューラルネットワークの手法はシーケンシャルニューラルネットワーク、リカレントネットワークとよばれ最近注目されている8)9)

 

4.4 認識結果フィードバックによる入眠検知

 実際の入眠検知は、前認識結果 0,1,2 を 0,64,128 にパターン化して、3つのパラメータのパターンと合わせて、これらの4つのグラフパターンを認識する。

 このように、フィードバックを用い、各状態変化を学習することにより、このネットワークは、睡眠状態の遷移を認識できるようになる。つまり、異なった状態にあるところに同じパラメータ値を入力しても、次の認識において、異なった認識結果を出力する。

 フィードバックデータのパターン化を式で表わしたものが、式 (4.4.1),(4.4.2) である。ただし、前認識結果を o,フィードバックデータの値を F,フィードバックデータに対応する入力層ニューロン j の入力を Xfj とする。又、N は量子化の段階数である。

 

    F = { (0,64,128) | o = 0 ならば  0 ,

                o = 1 ならば 64 ,

                o = 2 ならば 128  }      (4.4.1)

 

    Xfj = { (0,1) | 0 ≦ j ≦ F ならば 1 ,

               F < j ≦ N ならば 0 }      (4.4.2)

 

             N = 128, 1≦j≦N

 

 学習用データには、ファジィ推論による判定結果において、状態が変化するところ、つまりグラフの立ち上がり,立ち下がり時点のデータと、状態変化のない時点のデータを合わせて用いることにした。これによって、状態の変化と各積算データとの関係を学習させることができ、より正しい認識が可能になると考えたためである。学習には表 4.4.1 に示すような、計 30個のデータを用いた。使用するネットワークは、入力層:512、中間層:10、出力層:3 、総シナプスウェイト数 5150 である。

 学習により得られたシナプスウェイトを用いて認識を行った結果の例を図 4.4.1に示す。認識はフィードバックがない場合と同様に連続して行った。シナプスウェイトの学習には、フィードバックのない場合の認識に用いたものと、同じ学習定数,学習回数である。

 得られた結果を、フィードバックのない場合の認識結果と比較すると、フィードバックによって細かい状態変化が少なくなり、全体としての認識結果がファジィ推論による判定結果に、より近づくことが分かる。さらに、細かい部分についても、一致する部分が多くなっていることが分かる。この結果より、フィードバックを行うことによって、認識が改善されることが分かる。

 

            表4.4.1 学習用データ一覧

      





















 

  前の状態

 現在の状態

データ個数

 覚醒



 

 覚醒

   8

 レム睡眠

   0

ノンレム睡眠

   5

 レム睡眠



 

 覚醒

   2

 レム睡眠

   3

ノンレム睡眠

   3

ノンレム睡眠



 

 覚醒

   0

 レム睡眠

   7

ノンレム睡眠

   2

     データ数合計
 

   30
 






















 

 

4.5 ニューラルネットワークによる入眠検知

 以上のような研究結果より、入眠検知の判定法として、ニューラルネットワークは有効であると考えられる。しかし、今回の報告時点では、認識結果が正しいか否かの判定は、ファジィ推論による結果のみに依存していた。従って、実際の睡眠状態と認識結果を比較する必要がある。

 又、ニューラルネットワークによる入眠検知を実用段階までにするためには、

           図 4.4.1 睡眠状態の判定例2

 

より多くのデータを用いて学習を行い、測定データに個人差等があっても正しく認識できるようにしなければならない。この点では、個人差を吸収するための再学習等が考えられる。

 状態遷移をニューラルネットワークによって認識する方法では、フィードバックを行うことにより、認識結果が改善されることが分かった。しかし、厳密に状態遷移という観点で考えると、フィードバックデータが認識に与える影響を大きくする必要がある。つまり、この研究で行った方法では、フィードバックデータを他のパラメータのデータと同等に扱って学習させているので、その影響は他のパラメータと同程度しかなく、前状態の影響が弱いと考えられる。

               5. まとめ

 

 本研究では、バックプロパゲーションアルゴリズムを用いて、連続量をもつ時系列信号の特徴等の認識について研究を行った。

 まず、スケール・スペース・フィルタリングを用いた信号処理と組み合わせた場合、シミュレーションおよび実験により、スケール・スペース・フィルタリングによって得られた信号の特徴量判別に対するニューラルネットワークの導入が有効であることが確認された。また、学習によって得られたネットワークの結合荷重から特徴量の判別式が得られることが実証された。

 次に、入眠検知の判定法として、ニューラルネットワークの導入では、従来から提案しているファジィ推論を用いた方法とほぼ同等の性能が得られることが分かった。またネットワークにフィードバックを施すことにより、信号の状態遷移もネットワークに表現できることが分かった。

 

参考文献

1)土井滋貴,高橋晴雄,志水英二,松田稔:"水中情報伝送におけるスケール・スペース・フィルタリングに関する一考察 その2",海洋音響学会誌 vol.17, no.4, pp238-245

2)土井滋貴,森和義,志水英二,松田稔:"スケールスペースフィルタリングを用いた水中情報伝送の研究",平成2年度秋期日本音響学会講演論文集, 1-5-12

3)森和義,土井滋貴,志水英二,松田稔:"ニューラルネットワークを用いた水中音響信号の特徴量判別法",平成3年度秋期日本音響学会講演論文集,1-4-24

4)土井滋貴,佐久間崇,長井一郎,高橋晴雄:"赤外線センサによる入眠検知法の開発" 平成2年電気関係学会関西支部連合大会,G2-23,1990年10月21日

5)中尾忠幸,土井滋貴,高橋晴雄:"ファジィ推論を利用した入眠検知方法"

大阪科学技術センター第7回ソフトウェアウェアコンファレンス,1991年3月8日

6)S.Doi, T.Sakuma, I.Nagai and H.Takahashi:"A Sleeping Detection Method using an Infrared Sensor and Fuzzy Inference", International Confrence Microelectronics 1992, Bandung,INDONESIA,13-15 January 1992

7)濱川悟:"ニューラルネットに関する研究"

奈良工業高等専門学校平成3年度卒業研究報告書、平成4年2月5日

8)銅谷賢治:"リカレントネットワークの学習アルゴリズム"

計測と制御 Vol.30, No.4, p296, 1991

9)中川聖一、早川勲:"シーケンシャルニューラルネットワークを用いた音声認識"

電子情報通信学会論文誌 VOL.J74-D-U, NO.9 pp.1174-1183, 1991