アップル社のSiriやAmazon社のAlexaなどの音声認識ソフトウエアが、ALSの患者の音声を正確に認識できるよう訓練中。すでに10%までエラー率削減。
ALSの患者さんやそのご家族の注意を引く記事が、イリノイ州立大学のオンライン・ニュースレターに掲載されていました。2024年1月11日付「イリノイ インサイダー」
このプロジェクトはSpeech Accessibility Project(スピーチ・アクセスビリティ・プロジェクト)と呼ばれるもので、脳卒中やパーキンソン病患者のスピーチ音声データを収集しソフトを訓練することを去年から始め、その後ダウンシンドローム患者さんの音声も加えられてきました。 そして今年に入り、ALSや脳性麻痺患者の音声も正式に加え始められました。 自分の言ってることをSiriやAlexaがなかなかわかってくれないという患者達のニーズに気づき、プロジェクトを始めたのはエレクトリカル・コンピューター・エンジニアリング教授であるハセガワ・ジョンソン氏とチームです。Apple社、Amazon社、Google社などからリサーチファンドを受けており、すでに10万個にも及ぶ音声サンプルが収集提供され、Siri 、Alexa、Google Assistantなどの訓練に使用されているそうです。
訓練前だとパーキンソン患者達のスピーチは約20%も間違って認識されていたのが、訓練後では10%に下がったとのことです。さまざまな障害を持つ人々のスピーチ音声データがもっと増え、訓練が積み重なるとさらなるエラー率の低下が予想されます。そういった人々にも、スピーチ認識ソフトが容易にアクセスできるようになれば、同じようにテクノロージーの利便さが共有されます。 将来は収集された音声データは、非営利や中小企業にも無料で提供できるようになるそうです。もちろん音声提供者のプライバシー遵守という条件付きによる提供とのことです。これは英語圏内における英語版ですので、将来は日本のリサーチャー達によって日本語版のソフトの訓練も起きることが期待されます。
2024年1月12日 Reporter:Nobuko Schlough