2016年10月22日の第81回月例発表会(M1)において,青野 朝日(M1),秋田 浩也(M1),今野 裕太(M1),吉村 悠(M1),岩見 泰周(M1),Kentaro Morita(M1)の6名が以下のタイトルで発表を行いました.

データフローモデルを基盤としたROSによるVRシステム構築環境の提案(青野 朝日)

P1260312.jpg
近年,あらゆるソフトウェアが高機能,高性能になってきている.そのため,ソフトウェア設計,開発の段階において,構造が複雑になる傾向がある.VR(VirtualReality)と呼ばれる,身体に装着する機器や,コンピュータにより合成した映像・音響などの効果により,3次元空間内に利用者の身体を投影し,空間への没入感を生じさせる技術が開発されている.1)より没入間を増加させたり,使用者の利便性を高めるために様々なソフトウェアを組み込む必要がある.しかし,一つのソフトウェアを導入するとシステム全体の構成を変更する必要がある.また,他のソフトウェアに影響を及ぼす場合がある.そのため,VRシステムの開発者は容易に新たな機能を追加することが困難である.本研究は,データフローモデルを基盤としているROS(RobotOperatingSystem)を利用し,コンポーネントの組み合わせによりVRシステムの環境を自由に構築することが可能な手法を提案する.

環境データと行動データを組み合わせた宅内行動推定(秋田 浩也)

P1260328.jpg
近年IoT(InternetofThings)の流れを受けて,さまざまなネットワークデバイスが発売されている.また,ECHONETLiteに準拠したネットワークに接続可能な白物家電の発売も行われている.これらのデバイスは自らが搭載するセンサーを用いて環境情報をセンシングすることが可能である.例えば,エアコンであれば室内の温度や湿度といった情報を取得,共有することができる.さまざまなデバイスが情報を共有できることで,取得した情報を用いて人の行動推定を行う研究がされている[1][2].人の行動推定を行うことで,子供や高齢者の見守りサービスや効率的な家電制御[3]を行うことができる.本研究では,デバイスから取得できるデータを環境データと行動データの二つに分類して宅内の行動推定を行う.今回は,一般的な一人暮らしの生活に限定して,行動推定を行い,評価する.

論理デバイスモデルを利用したIoT向けセキュリティフレームワークの検討(今野 裕太)

P1260331.jpg
近年,コンピュータの小型化や性能向上により,センサーデバイスなどがネットワークを介して相互接続するモノのインターネット(IoT:InternetofThings)が広く普及し始めている.IoTのコンセプトは家電などの身の回りのあらゆるモノがインターネットにつながり,情報のやり取りをすることでモノのデータ化やそれに基づく自動化等が発展し,新たな付加価値を生み出すというものである.現在,現実世界に存在する1.5兆個のモノのうち99.4%はインターネットにに接続されていないとされ,これらが今後接続されることを想定すると,このコンセプトが持つ潜在的な価値は非常に大きい1)一方でIoTで利用されると想定される機器の多くは小型化,省電力化により必ずしも一般的なネットワーク機器と同等のリソースを有しておらず,セキュリティ面において十分な対策が行えていない2).またこれらのデバイスが乗っ取られボットとして悪用された場合,深刻なDDOS攻撃につながることも考えられる.今後もIoT関連の機器は増加していくことが予想され,ボットによる大規模攻撃の被害を防ぐためにも,これらのセキュリティを確保することは重要である.そこで本研究は,VM上に構築したより高いセキュリティ強度を保持した論理デバイスが,IoT機器とインターネットとの通信を中継することで,従来のIoT機器の問題点であったリソース不足によるセキュリティ面の改善を検討する.

UPnPとOpenFlowの協調によるIoTネットワーク自動構成の検討(吉村 悠)

P1260334.jpg
近年、機器同士または機器と人がネットワークを介して接続され様々なサービスを実現するInternetofThings(IoT)が注目されている.将来的には数億台もの機器がネットワークに接続されるようになると言われ,それに併せてネットワークに対する新たな欲求が生まれている.その中の一つが機器,ネットワークの自動設定である.IoTサービスを利用,提供するためにはまずネットワークに接続し他の機器と通信するための機器間設定が必要である.また多種多様なサービスを提供するIoTネットワークではサービスの特性,要件に合わせたネットワーク設計が必要になる場合がある.しかし膨大な数のIoT機器それぞれに適切な機器間設定やネットワーク設計を人の手で行うのは大きな負担となる上,設定ミスによる経済的損失やセキュリティリスクの増大につながってしまう.そこで本研究では機器間の自動初期設定を行うUPnP(UniversalPlugandPlay)などのアプリケーションレベルのプロトコルと,ネットワーク機器のパケット制御機能と伝送機能を分離しソフトウェアによるネットワークの自動構成を可能にするSDN(Software-Defined-Networking)技術を連携させることでよりセキュアで細密なIoTネットワークの自動設定を目指す。まずUPnPとSDNそれぞれのIoTネットワークにおける役割と問題点を説明し,二つを連携させ問題点を解決する提案手法について解説する,最後に考察と今後の展望を述べる.

複数センサとペリフェラルモード化の併用による屋内位置推定システムの提案(岩見 泰周)

P1260337.jpg
近年,大型ショッピングセンターや病院などといった高層ビルが各地で建てられている.このような建物の屋内構造は複雑である.また,主要都市の駅の構内や周辺も複雑化してきている.例えば,JR大阪駅の構内図は図1のように複雑な構造となっている.また,株式会社エンプライズが迷子に関する調査アンケートを行った際,図2の結果が得られた.このように,初めての駅やショッピングモールを訪れる人にとってその場所の移動は困難である.この問題を解決するシステムとして,位置推定システムがある.主なシステムとしてGPSがあり,カーナビや徘徊老人を探すシステム1)など,様々な場面で利用されている.本研究では,建物内や駅構内・周辺といった屋内における位置推定を実現し,既存の位置推定システムよりも位置精度を向上する位置推定システムを提案し,目的地までの経路探索や現在地確認といった位置情報を扱うサービスで役立てることを目的とする.

Using Finger Movement Recognition toOperate User Interface on Smart Glasses(Kentaro Morita)

P1260342.jpg
The popularity of smart phones and tablets has given riseto augmented reality (AR) applications., such as an AR ap-plication for a smart phone camera and an AR technology ap-plication for wearable devices such as smart glasses. Smartglasses are now being used with navigation systems, to pro-vide descriptions of sightseeing spots and facilities using anAR marker, and as support in medical settings and factories.AR technology is advantageous in that users can view realspace and computer information at the same time. Most carnavigation systems, however, are mounted beside the driver’sseat, so drivers cannot watch the navigation information andthe real space in front of the car simultaneously. It is also in-efficient, and potentially hazardous, to read documents whileworking in medical or factory settings. Wearable devices,such as smart glasses, can alleviate this issue. In addition, asthe use of smart glasses becomes more widespread, users willbegin to use such AR devices in their private life as well.While current AR devices, particularly smart glasses, dis-play information, there is no established operating methodfor the AR information displayed on the smart glasses. Smartglasses operation varies by device; Google’s Google Glassoperates by speech recognition, whereas Epson’s MOVERIOis operated by a controller. Speech recognition makes it easyto input text, but operating a pointer is impossible. On theother hand, while it is easy to operate a pointer with a con-troller, the user must have a free hand available to operatethe controller. Thus, each existing technique has its meritsand demerits. Therefore, in this study, our aim is to resolvethese problems and propose a system that enables effectiveoperation for the information displayed on the smart glasses.