ここに(ほとんど)ある8つの次世代ユーザーインターフェース
コンピューティングにおけるユーザーインターフェイス(UI)について説明するときは、次のことを参照しています。 コンピュータプログラムまたはシステムがユーザーにどのように表現されるか, 通常はグラフィック、テキスト、音声を介して。私たちは皆、デスクトップ上のアイコンをマウスカーソルで操作する典型的なWindowsとAppleのオペレーティングシステムに精通しています。それ以前は、テキストベースの古いコマンドラインのプロンプトが表示されていました.
テキストからグラフィックスへの移行は、1984年にAppleの創設者Steve Jobsが著名なMacintoshオペレーティングシステムによって始めた大きな飛躍でした。近年では、タッチの使用を含む革新的なUI(スマートフォンなど)も目撃しました。音声(例:Siri)やジェスチャー(例:Microsoft Kinect)しかし、彼らは、ほとんど彼らの開発の主要な段階にいます.
それにもかかわらず、彼らは私たちにUIの次の革命がどうなるかについての手がかりを与えます。興味津々?ここにあります 次世代UIがどのようなものになるかについての8つの主な機能:
1.ジェスチャーインターフェース
2002年のSF映画、マイノリティレポートは、コンピュータシステムとのやり取りが主にジェスチャの使用によるものであるという未来を描いたものです。 2人の未来的な手袋を身に着けている主人公のTom Cruiseは、自分のコンピュータシステム上で画像、ビデオ、データシートを操作するために彼の手でさまざまなジェスチャを実行しているのが見られます。.
10年前、空間的な動きが非常にシームレスに検出されるようなユーザーインターフェイスがあることは、少し先んじているように思われるかもしれません。今日、2006年のWii Remote、2010年のKinect、PlayStation Moveのようなモーションセンシング機器の出現により、将来のユーザーインターフェースはまさにその方向に向かっているかもしれません。.
ジェスチャ認識では、入力は、現在までデバイス、タッチスクリーンまたは音声を介して入力されているコンピューティングタスクを実行するための手または他の任意の身体運動の形態でもたらされる。の 既存の2次元UIにz軸を追加 間違いなくヒューマンコンピュータインタラクションの経験を向上させます。体の動きにさらに多くの機能をマッピングできることを想像してください。.
さて、これはg-speakのデモビデオです。実はこの映画の科学顧問であったJohn Underkofflerによって設計された、少数派レポートに見られるコンピュータインターフェースのプロトタイプです。彼がどのように彼の手のジェスチャーを通して3D平面の何千もの写真をナビゲートして、チームタスクに関して仲間の「ハンドジェスチャー」とコラボレーションするのを見てください。興奮した? Underkofflerは、そのようなUIは今後5年以内に市販されると考えています.
ブレインコンピュータインタフェース
私たちの脳は、私たちの思考によってあらゆる種類の電気信号を生成します。 それぞれの具体的な考えには独自の脳波があります パターン。これら 固有の電気信号をマッピングして特定のコマンドを実行することができます。 思考を考えることで実際にsetコマンドを実行できるように.
Emotiv Lifescienceの共同創設者兼社長であるTan Leによって作成されたEPOCニューロヘッドセットでは、ユーザーが 彼らの考えによって生成された彼らの脳波を検出する未来的なヘッドセット.
このデモビデオからわかるように、思考によって実行されたコマンドは非常に原始的です(つまり、立方体をユーザに向かって引っ張る)が、それでも検出はいくつかの問題に直面しているようです。このUIが適切に開発されるまでしばらく時間がかかるようです.
いずれにせよ、人が可能な(遠い)未来を想像する 考えだけでコンピュータシステムを操作する. 午前中にベッドから出なくてもライトをオンまたはオフにできる「スマートホーム」の概念から、(脳波を介して)あなたの気分に反応するという究極のゲーム体験に没頭するというアイデアまで、そのような素晴らしいUIの可能性は事実上無限です.
フレキシブルOLEDディスプレイ
スマートフォンのタッチスクリーンが硬直していてもそれでもコマンドに十分に反応しない場合は、おそらく柔軟性のあるOLED(有機発光ダイオード)ディスプレイを試してみることになるでしょう。 OLEDは、巻かれたまたは引き伸ばされたときでさえも依然として光を表示することができる有機半導体である。プラスチック製の曲げ可能な素材に貼り付けると、真新しくて剛性の低いスマートフォンの画面が得られます。.
さらに、これらの新しいスクリーンは、その中でコンピューティングシステムと相互作用するようにねじる、曲げる、または折り畳むことができる。ズームイン、ズームアウトするにはコーナーをひねり、音量を上げるにはコーナーをひねり、音量を下げるにはもう一方のコーナーをひねり、写真をスクロールするには両側をひねります。.
そのような柔軟なUIにより、次のことが可能になります。 私たちの手がタッチスクリーンを使うにはあまりにも夢中になっている場合でも、自然にスマートフォンと対話する. これは、手袋をはめた指に対するスマートフォンの画面の感度(またはその欠如)、あるいは指が大きすぎて正しいボタンに到達できない場合の解決策となる可能性があります。このUIでは、電話を取るために手のひらで電話を絞るだけです。.
4.拡張現実感(AR)
私たちはWikitudeのような私たちのスマートフォンアプリのいくつかで既にARを経験しています、しかしそれはほとんどその開発の基本的な段階にあります。 ARは、近日発売予定のGoogleのProject Glassを介して、認知度の最大の向上を図っています。 仮想拡張機能を見る あなたが対話できる現実のこれは何を期待するかの素晴らしいデモです.
ARができるのであれば、ARは眼鏡以外のものでもかまいません。 実世界の環境とリアルタイムで対話する. あなたがあなたに有用な情報を与えるためにあなたが物、建物およびあなたの環境の上にかざすことができるシースルー装置の一部を想像してください。例えば、あなたが外国の看板に出くわしたとき、あなたはそれらがあなたの簡単な読書のために翻訳されるのを見るためにガラス装置を通して見ることができます.
ARはあなたの自然環境を利用して、ディスプレイを壁や自分の手に投影することで対話できるモバイルユーザーインターフェースを作成することもできます。.
ARを利用したMITによって開発されたウェアラブルジェスチャーインターフェースのプロトタイプであるSixthSenseを使ってそれがどのように行われるかを調べてください。.
5.音声ユーザーインターフェイス(VUI)
1979年のChris Schmandtによる「Put That There」ビデオプレゼンテーション以来、音声認識はまだ革命的な成功を収めていません。 VUIをめぐる最新の宣伝は、AppleのiOSに組み込まれているパーソナルアシスタントアプリケーションのSiriです。それは、その音声認識機能のために自然言語のユーザーインターフェースを使って、アップルデバイス上で排他的にタスクを実行します。.
ただし、Google Glass自体のような他のユーザーインターフェイステクノロジでも、これをサポートするものと見なされています。ガラスは基本的にはスマートフォンのように機能しますが、それを持ち上げて指で操作する必要はありません。代わりにそれ 眼鏡としてあなたにしがみつくし、音声制御を介してあなたのコマンドを受け取る.
今VUIに欠けている唯一のものは あなたの言うことを認識することの信頼性. それを完成させれば、それは将来のユーザーインターフェースに組み込まれるでしょう。現在、スマートフォンの機能が拡張および開発しているとはいえ、VUIがその中心的な役割を果たすまでには時間がかかります。 ヒューマンコンピュータインタラクションの主な形態 あらゆるコンピューティングシステム用.
6.有形ユーザインタフェース(TUI)
そのコンピュータシステムがあると想像してみてください。 現実世界の物体の認識を可能にするために、物理的環境をデジタル領域と融合します。. Microsoft Pixelsense(以前のSurface)では、インタラクティブコンピューティングサーフェスは、画面に配置されているオブジェクトを認識および識別できます。.
Microsoft Surface 1.0では, 物体からの光は複数の赤外線カメラに反射されます. これはシステムを可能にします 画面に配置されたアイテムをキャプチャして反応する.
技術の高度なバージョン(マイクロソフトPixelSenseとサムスンSUR40)では、画面が含まれています 何が画面に触れたかを検知するカメラではなくセンサー. この表面では、実際のブラシチップによる入力に基づいて、絵筆でデジタル絵画を作成できます。.
システムも サイズや形を認識し、埋め込まれたタグとやり取りするようにプログラムされています 例えば画面に配置されたタグ付きの名刺は、カードの情報を表示します。表面に配置されたスマートフォンがシステムを起動させ、携帯電話のギャラリーにある画像を画面にシームレスに表示する可能性があります。.
7.ウェアラブルコンピュータ
名前が示すように、ウェアラブルコンピュータは あなたがアクセサリーやアパレルのようにあなたに身に着けることができる電子機器. それは手袋、眼鏡、時計、さらにはスーツのペアにすることができます。ウェアラブルUIの主な特徴は、 手を離さないで 毎日の活動を妨げることはありません。言い換えれば、それは 二次活動 あなたのために、あなたがそれにアクセスしたいとき.
スマートフォンのように動作することができる時計を持っていると考えてください。ソニーは、Bluetooth経由であなたのAndroid携帯電話とペアにすることができる今年初めにすでにAndroid搭載のSmartWatchをリリースしました。それは新しいEメールやつぶやきの通知を提供することができます。すべてのスマートフォンと同様に、互換性のあるアプリを簡単にアクセスできるようにSony SmartWatchにダウンロードできます。.
スマート機能を搭載したマイクロチップがナノサイズに成長し、日常着にフィットするようになるにつれて、近い将来、よりウェアラブルなUIが期待されています.
8.センサーネットワークユーザーインターフェース(SNUI)
これは、カラーLCDスクリーン、内蔵加速度センサー、IrDA赤外線トランシーバーで構成された複数のコンパクトなタイルがある流動的なUIの例です。 近接して配置されたときに相互作用する. これを簡単にしましょう。それは、隣同士に配置するとデータを反映するように変化するスクリーンを持つスクラブルタイルのようなものです。.
Siftablesのこのデモビデオで見るように、ユーザーは 傾けたり、揺らしたり、持ち上げたり、ぶつけたりしてタイルと物理的に相互作用する 他の同様のタイルでそれを。これらのタイルは非常にインタラクティブな役割を果たすことができます 学習ツール 行動に対して即座に反応を示すことができる幼児向け.
SNUIはまた ゲームプレイがタイルの移動と回転を含む単純なパズルゲーム 勝つために。それからまたする能力があります これらのタイルをまとめて物理的に画像を並べ替える あなたの好みに従って。それはもっと群衆に対応したTUIです。 1つの画面の代わりに、相互に作用するいくつかの小さい画面で構成されています.
最も期待されるUI?
これらのUIが新世代のユーザーにとってより直感的で自然になるにつれて、私たちは共有しなければならない知識の洪水を消化する能力を継続的にテストする、より没入型のコンピューティングエクスペリエンスで扱われます。それは圧倒的であり、時にはわくわくするでしょう、そしてそれは間違いなくこれから来る新技術で楽しみにするべき何かです。.
もっと!
未来が私たちのために取ってあるものを見ることに興味がありますか?下記のリンクをチェックしてください.
- 教育のための5つのトップ拡張現実アプリ
- 将来のスマートフォンに期待される5つの主な機能
- あなたが見逃してはいけない顎ドロップTEDビデオ
あなたが一番興奮しているのはこれらの素晴らしいUIのどれですか?それとも、次世代のUIのための他のアイデアがありますか?あなたの考えをここにコメントで共有してください.