[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Windowsの使いにくさの本質(Re: TODOリスト)



鳥原です。
ふたたび、西本さんのメールにアペンドさせていただきます。

Emacsspeakを日本人の視覚障害者に使用できるようにする、という先には
AUIの進展のための研究・実験が必要だと思います。

音声のいいところもあります。
たとえば、ながら聞き、同時聞き(重要な単語が重ならないように、別々の声でスケ
ジューリングしながら別々のフレームなどを同時に聞く)などです。

キーボード練習ソフトでは、画面にキーボードと指が出ています。
見える人は、これでタッチ・タイピングの練習ができます。
複数サウンド・カード、複数スピーカのマトリックス配置でGUIを表現して、位置
情報も提示(該当場所での音、音声合成)を用いて、
キーボードのどのあたりかを示すというのも、有効性を示すのにはいいと思います。

視覚障害者、全盲になった時点によってかなりのばらつきがあります、それにしても
弱視者が圧倒的に多いのです。
displayを置き換えるようなものではなく、displayプラスという考え
方を取ってもらえると、弱視者、高齢者、一般、そして全盲者にもアシストできるシ
ステム、マルチ・メディア、マルチ・モダルおよびユニバーサル・デザインが障害者
のバリアーを取り除く鍵ということになります。
マウスを大きくしたり、拡大鏡ソフトも重要ですが、マウスのある方向から音、音声
合成などが出れば、
相補的に使い勝手が向上すると思われます。

慣れたところ(家など)では、視覚障害者であることを忘れています。
それは、視覚以外の感覚を総動員して情報処理をしているからです。
極端に言うと、パソコンの前に座ると、著しくハンディを感じます。
言い換えると、20インチのWindowsの世界をもっと広い仮想世界にマッピン
グできれば、(視覚かによるのではなく、聴覚など非視覚による仮想世界)によると、
視覚障害であることを忘れることができる、それほどに情報処理ができる可能性があ
ると思います。

いままでのスクリーン・リーダー、音声化アプリケーションは、GUIを論理的に音
で表している、というよりも、まさしく抽象、捨象しているのです。

大きなプロジェクター・スクリーンにマトリックス・スピーカを配置して、該当の場
所(位置)から音響、テキスト音声合成を出力します。
プロジェクター・スクリーンの上にはタッチ・パネルを貼っておきます。
音がなると、方向が分かりますし、触ると振動(スピーカであるので)していること
が触って分かります。そこでダブル・クリックごときダブル・タッチをするとGUI
操作ができます。

いろいろとアイディアを披露してしまっていますが、
つぎのAUIのパラダイムを開くために、議論をしてもらいたいのです。

鳥原信一


At 午前 11:32 00/10/02 +0900, Takuya Nishimoto wrote:
> 西本です。
> 
> 突飛な議論をしてしまったかと思ったのですが、
> いろいろご意見をいただいて、嬉しく思います。
> 
> > 中村 のりつぐ です。
> 
> > 現状の Windows の GUI が音声から使いにくいからといって、
> > Windows の GUI システムが本質的に使いにくく、DOS の CUI の方が
> > 絶対使いやすいと言えるのか?という点です。
> 
> 私も同じ疑問を持っています。
> 
> なにから取り掛かっていいのかよく分からないのですが、
> まず WinBiff や MM-Mail を音声化して使う上で、
> どこにどういう問題があるのか、私自身が納得する必要があります。
> 
> > しかし、抽象度からいったら Windows の方が、部品化されていて
> > (現状ではされるべきはず?かもしれない)、その情報さえ適切に
> > 取得できれば、本来ちゃんと音声でも使えるのでは???
> > と思ってしまうのです。(現状では全然そうなっていないので当然
> > 使いにくい、もしくは使えない状態ですが)
> 
> おっしゃる通り Windows のフォームやウィジェットはそれなりに
> 情報の表示や選択を抽象化する役割を持っていると思います。
> 
> インターネットに特化することで UI とアプリケーションロジックを
> さらに明確に分離した例が HTML の FORM だと思うのですが、
> これでも充分ではない。
> さらに音声に特化したものが VoiceXML である、と私は思います。
> 
> 抽象レベルでのデザインがまずいと、ユーザが何かしら
> 補う必要があるのですが、CUI の方が低レベルの情報で補うことができる。
> だから設計のまずいアプリでも CUI なら音声化して使える。
> 
> これは UI の自由度とかガイドラインの問題ではないか、
> と思わなくもないです。
> 
> GUI 環境のアクセシビリティについては Microsoft に続いて、
> 最近は Sun が中心になって GNOME について活動を始めています。
> もうすこしこのへんも興味を持っておかなくては、とは思います。
> 
> > もちろん豊富な2次元の画面情報を情報量の少ない音声に落すので、
> > 使いにくくなる点は絶対避けられないと思いますが、
> > それは emacspeak でも同じですよね?
> 
> 「情報量の少ない音声」から「情報量の多い音声」への発想の転換が、
> AUI の素晴らしいところだとは思います。
> 
> しかし、アプリケーションの概念モデルが素直に GUI にも AUI にも
> マッピングできるわけではありません。
> 特に概念モデルが最初から GUI に特化してしまうと AUI 化しにくい。
> emacs のバッファという概念が、従来の Windows アプリよりも
> 直接的にアプリの概念モデルと対応しているとすれば、
> もしかすると AUI と相性がいいのかも、と期待したりもします。
> 
> つまるところ私は emacs の「バッファ」という概念が、
> 本当に GUI を捨ててまで慣れるに値するものなのか、
> ちょっと心配しています。
> 
> 「Emacs が好きな人だけが Emacs を使う」で話が終わってしまうのは
> ちょっとつまらない、というのが正直な気持ちです。
> 
> ==
> 西本卓也 (助手) / 京都工芸繊維大学 電子情報工学科
> 京都市左京区松ヶ崎御所海道町 (〒606-8585)
> http://www-vox.dj.kit.ac.jp/nishi/
> nishi@...
> 
> 
> 
> 
> 
>