動画ポータルサイト

フロー

2023

「第1回ものづくりODM/EMS展」【6月21日】

「第1回ものづくりODM/EMS展」にて展示させていただいたデモになります。

今回の開発テーマは「じゃんけん」です。お客様と「じゃんけん」勝負するシンプルなデモを開発しました。

ご覧いただけたでしょうか?デモの内容をもう少しご説明します。

  • 入力:お客様にUSBカメラの前で、「グー、チョキ、パー」を出していただきます。
  • 処理:AIエッジ向け「Kria K26 SoM(AMD社製)」にて、入力した前記画像の「ハンドサイン分類」を実行
  • 出力:前記処理を受けて、下記2つの出力を出しています。

出力1:「ハンドサイン分類」した結果をモニターに出力。
⇒お客様が出した手(「グー、チョキ、パー」)をAI推論、つまりAIで予想した結果を表示します。

出力2:「ハンドサイン分類」した結果から、お客様に勝てるよう「ロボットハンド」を動かします。
「KR260」にてPWM制御を行い、「ロボットアーム」のサーボモータをコントロールします。

G7群馬高崎デジタル・技術大臣会合 「デジタル技術展」【4月28日】

G7群馬高崎デジタル・技術大臣会合 「デジタル技術展」にて展示させていただいたデモになります。

「AIエッジ向けSOM(System On Module)を活用したカメラ-スマホソリューション」と題し、USBカメラから取得した映像に対し、小型エッジデバイス(Kria K26 SOM)にてAI処理、画像処理を行い、その結果をスマホで見ることができるデモを展示いたしました。


全体映像


スマホでの映像

「ぐんまDigital Land」【3月21日】

「ぐんまDigital Land」にて展示させていただいたデモになります。

オートモーティブワールドに出展した「物体検出」のデモをブラッシュアップしました。
「特定の物体」を検知するデモは、良く見かけます。そこに、「領域を設定」し、その領域内に「特定の物体」を検知したら、〇〇させる。という、異常検出系のシンプルなコンセプトです。画面に“特定領域“を設定します。シンプルに画面を6分割しました。(ピンクの線で区切っています)今回、下の写真の赤枠で囲った領域内に、「ボトル」を検出したら、「走るツナグちゃん」をリアルタイムに重畳させました。今までは静止画の表示でしたが、動画においても滑らかに表示されるところを是非ご覧ください。

AIエッジ向けAMD Xilinx製「Kria KR260(ロボティクススターターキット)」を活用したAI物体検知【1月25日】

「第15回オートモーティブワールド」にて展示させていただいたデモになります。

Plan A:録画(SDカード保存)
当社が拠点としている高崎のとある交差点の様子を撮影してきました。
車社会の群馬は、かなり車の往来があります。
このシチュエーションにおいて、“特定領域“として、下記を設定(ピンクの線で囲いました)
①横断歩道(2か所)、②信号待ちスペース
この設定した領域内で、「人」、「自転車」を検出したら、対応する「ツナグちゃんの画像」にリアルタイムに切り替えています。
詳しくは、動画をご覧ください。

動画の説明:
「横断歩道」に「人」を検知したら、「横断しているよ!」と表示
「信号待ちエリア」に「人」を検知したら、「巻込み注意!」と表示


デモ1 PlanA(録画)

Plan B:リアル(USBカメラ入力)
当日の展示会場です。
PlanAと同様に、 “特定領域“を設定します。シンプルに画面を6分割しました。(ピンクの線で区切っています)
この設定した領域内で、「ボトル」を検出したら、対応する「ツナグちゃんの画像」にリアルタイムに切り替えています。
詳しくは、動画をご覧ください。

動画の説明:
「下段左のマス」に「ボトル」を検知⇒「持込禁止!」と表示
「下段中央のマス」に「ボトル」を検知⇒「それおいしいよね!」と表示
上段のマス3ヶ所も、「ボトルを検知」すると、それぞれ表示を変えてます。


デモ1 PlanB(リアル)

2022

AMD Xilinx社主催 「Tech Day Tokyo 2022 」【10月16日】

AMD Xilinx社主催 「Tech Day Tokyo 2022 」にて展示させていただいたデモになります。

“カメラの前で特定のポーズをとると、同じポーズのキャラクター画像を重畳し、モニターにリアルタイムに表示する”デモを開発、デモを行いました。キャラクターにはOKIのバーチャルキャラクターである“緒希ツナグ®”ちゃんを起用し、デモに華を添えてもらいました。

本デモの最大のポイントは、
#1 映像取得 ⇒ #2 AI推論(姿勢推定) ⇒ #3 画像処理(重畳) ⇒ #4 GigE Visionで送信 までの処理を、“送信側のKria KR260のみで処理、実行している” ということです。
当社のFPGA/SoCにアクセラレート、最適に実装する技術を存分に活かしています。

「CEATEC 2022」【10月18日】

「CEATEC 2022」にて展示させていただいたデモになります。

技術のポイント
 PCAS(Pruning Channels with Attention Statistics)は、OKI独自のAIモデル軽量化技術で、AIモデル(ディープラーニングモデル)に内在する不必要な演算を自動的に削減、AIモデルを軽量化することが特徴です。
 Zebra(※3)は、Mipsology社のAI処理高速化プラットフォームで、AIプログラムをFPGA/SoCに最適に、自動的に実装することができます。

PCASとZebraの効果比較
PCASとZebraの効果比較

ソーベルフィルタと顔認識のデモ【9月6日】

【Kria KV260】 リアルタイム映像の顔認識AIにチャレンジしてみた。~デモ応用編~にて紹介させていただいたデモになります。

ソーベルフィルタを出力する映像全体にかけて、顔部分だけフィルタをかけないアプリを作成してみました。ソーベルフィルタは映像のエッジ強調を行うフィルタ処理で、ノイズを低減しつつエッジを強調することができます。通常のスマートカメラアプリケーションの操作手順と同様の手順でアプリを起動します。

  • 記載されている会社名、製品名は、各社の商標または登録商標です。
  • ここに記載されている仕様、デザインなどは予告なしに変更する場合があります。
  • YouTube

お問い合わせ

お問い合わせ