企業の成長を応援する情報メディア りそなCollaborare

Copyright (c) Resona Bank, Limited All Rights Reserved.

ビジネスの動きを知る

AIが「動画を動画」として学習し始めた意義

日刊工業新聞

2019.02.02

 人工知能(AI)技術の動画対応が進んでいる。従来は動画データは静止画一コマずつの集まりとして処理されてきた。最近は時間変化を前提とした、本当の意味の動画としてAIがデータを学習できるようになってきた。動画から知識や因果を抽出したりロボットの制御に使ったりと応用範囲が急拡大すると期待される。課題は膨大なデータの処理や収集の効率化だ。

 産業技術総合研究所知能システム研究部門の佐藤雄隆副研究部門長らは、ディープラーニング(深層学習)により認識精度を74%に高めた動画認識AIを開発した。数にして約30万の動画データで152層からなる学習モデルを訓練した。学習には、産総研のAI用ス―パーコンピューター「AAIC」を2カ月間フル回転させた。佐藤副研究部門長は「静止画の学習は100万データで成否が分かれた。動画もデータの量が突破口になった」と説明する。

 こうした研究が進めば、動画から知識を取り出す応用が開ける。産総研人工知能研究センターの麻生英樹副研究センター長は「AIがどこに着目して判断したか可視化する技術を、時間軸方向にも応用できる」としている。

 例えば、人が転倒する動画と、しない動画を集めて歩く様子から転倒率を予測し、さらに予測の根拠を逆解析できる。「膝が上がらない歩行者は転びやすい」といった理由を抽出できる可能性がある。製造作業の動画に利用すれば不良発生の理由、スポーツの動画なら好プレーの要因を探せると期待される。

 だが、動画認識AIは人間のように動画の内容を理解しているわけではない。佐藤副研究部門長は映像の中から人間を隠した動画を用意してAIに学習させた。それでも7―8割の認識精度だった。佐藤副研究部門長は「テニスと認識した動画でも、AIはプレーする選手を見ていたのではなくコートを見ていた」と説明する。この結果は、静止画の集まりとしてデータを処理するAI研究への反証として注目された。この問題は動画認識AIにも引き継がれる。

 動画から知識を抽出するには「もう一工夫必要」と、同センターの辻井潤一研究センター長は指摘する。背景と人物、動体と静止物を分けて認識しつつ、動画のシーン認識と結びつけて構造化する必要がある。

 またロボット制御に分析結果を応用するには、動画認識の結果を言葉ではなく、ロボシミュレーションや制御用言語などの形で出力する必要がある。辻井研究センター長は「動画処理は知識系とデータ系のAIを結ぶ先端領域の一つ。面白くなる」と期待する。

課題はデータだ。動画は情報量が多く、データベース構築にコストがかかる。利用シーンを絞り込むことや、データ収集の効率化のために日常の作業に収集作業を埋め込む、といった戦略が重要になる。
日刊工業新聞2019年1月18日
(文=小寺貴之)



※上記内容は日刊工業新聞社が運営している「ニュースイッチ」に掲載されているものであり、りそな銀行の見解を示しているものではございません。記事に関するお問い合わせなどは、お手数ですが下記からご連絡をお願いいたします。
ニュースイッチお問合せ:
http://newswitch.jp/index/inquery

RECOMMENDATION

オススメの記事