きっと何者にもなれないSEの記録帳

日々で得たIT技術を記録していきます。

MEAN and Cosmos DBをVisual Studio Team ServicesでApp Service on Linuxにデプロイする

AzureのApp ServiceにはWindows版とLinux版があります。
OSSを使用するアプリケーションではLinux上で動作させる方がシンプルな形になりそうです。
Linux版のApp ServiceであるApp Service on Linuxを試してみます。

サンプルアプリの準備

MEAN構成のサンプルアプリとして以下を使用します。
GitHub - hi1280/angular-cosmosdb: Cosmos DB, Express.js, Angular, and Node.js app

前準備

Azure CLIをインストールします。
Azure CLI 2.0 のインストール | Microsoft Docs

Angular CLIをインストールします。

npm install -g @angular/cli

VSTSのプロジェクトを作成します。
Create a VSTS account with a Microsoft account or a work/organization account | Microsoft Docs

Cosmos DBの作成

Cosmos DBを以下のコマンドで作成します。
コマンドのオプションは環境に応じて適宜変更する必要があります。

az login
# リソースグループを作成する
az group create -n my-heroes-db-group -l "Japan East"

# Cosmos DBをMongoDBのAPIで作成する
az cosmosdb create -n my-cosmos-heroes-example -g my-heroes-db-group --kind MongoDB

サンプルアプリとCosmos DBの連携

Cosmos DBの接続文字列を確認します。

az cosmosdb list-connection-strings -n my-cosmos-heroes-example -g my-heroes-db-group --query "connectionStrings[0].connectionString"

example-environment.jsを接続文字列の内容に沿って修正します。
example-environment.jsにはサンプルアプリからCosmos DB(MongoDB)に接続するためのパラメータが定義されています。
example-environment.jsのファイル名をenvironment.jsに変更します。

ローカルでのアプリ起動
# Angular CLIのビルド実行
npm run build

# Node.jsの実行
npm start

http://localhost:3000をブラウザで開きます。

App Service on Linuxの作成

# リソースグループを作成する
az group create --name my-heroes-group --location "Japan East"

# App Serviceプランを作成する
az appservice plan create --name my-app-heroes-plan --resource-group my-heroes-group --sku B1 --is-linux

# App Service on Linuxを作成する
az webapp create --resource-group my-heroes-group --plan my-app-heroes-plan --name my-app-heroes-example --runtime "NODE|8.1"

Visual Studio Team Services(VSTS)との連携とデプロイ

サンプルアプリのコードをVSTSリポジトリにPushします。
Git index to content for VSTS & TFS | Microsoft Docs

ビルド定義

ビルドタスクは以下の通りに定義します。

Get Sources

  • This accountを選択します
  • 該当のリポジトリとブランチを選択します

npmパッケージをインストール

  • Add Taskをクリックし、npmを追加します
  • installコマンドを選択します

Angular CLIのビルド実行

  • Add Taskをクリックし、npmを追加します
  • customコマンドを選択します
  • Command and argumentsrun buildと入力します

サーバのnpmパッケージをインストール

  • Add Taskをクリックし、npmを追加します
  • installコマンドを選択します
  • Working folder with package.jsondistと入力します

成果物を公開する

  • Add Taskをクリックし、Publish Build Artifactsを追加します
  • Path to Publishdistと入力します
  • Artifact Namedistと入力します
  • Artifact publish locationVisual Studio Team Services/TFSを選択します

f:id:hi1280:20180217232228g:plain

リリース定義

リリースタスクは以下の通りに定義します

Artifact

  • ビルドのArtifactの最新を選択します

Azure App Serviceにデプロイする

  • Run on agentの+マークをクリックし、Azure App Service Deployを追加します
  • Azure subscriptionを選択します
  • App typeLinux Web Appを選択します
  • App Service nameを選択します
  • Package or folder$(System.DefaultWorkingDirectory)/my-app-heroes-example-build/distと入力します
  • Runtime StackでNode.jsを選択します

f:id:hi1280:20180218002023g:plain

感想

App ServiceのWindows版とほぼ変わらずに構成することができました。
Linux版ではそのままNode.jsが動作しているのでVSTSの設定もシンプルになっています。
Windows版ではIIS上でNode.jsのアプリケーションを動かすようになっていて、IISの設定が必要といった勝手が違う部分があります。
今後はLinux版を使っていくことになりそうです。

Amazon Echoとラズパイでスマートホーム化

Amazon Echoとラズパイでスマートホームを実現します。
Amazon Echoに対して音声で呼びかけて、Alexaスキルからラズパイを通して家電を操作します。

構成図

f:id:hi1280:20180129215335p:plain

AWS IoTの準備

AWS IoTを使って、Alexaスキルとラズパイとを連携します。
バイスの設定を案内通りに進めることで、該当のデバイスAWS IoTに接続することができます。
AWS IoTに接続するのに必要な証明書が得られます。
f:id:hi1280:20180129225533p:plain

今回はNode.jsを使用しました。
Node.jsでAWS IoTを使用したメッセージングの簡単な例はこちらが参考になります。
aws-iot-device-sdk-js/README.md at master · aws/aws-iot-device-sdk-js · GitHub

ラズパイでのAWS IoTプログラムの実装

AWS IoTのdeviceオブジェクトに証明書の情報を設定します。

AWS IoTからのメッセージを受け取って、赤外線を送信するコード

subscribeメソッドで受け取るメッセージを指定するのと、メッセージを受け取った後に実施する処理をmessageイベントで定義します。

AWS IoTの動作確認

テスト > 発行 からメッセージを発行することができます。
f:id:hi1280:20180130000103p:plain

ラズパイでの家電の操作方法は過去記事を参照してください。
hi1280.hatenablog.com

Alexaスキルの実装

Alexaスキルの種類はカスタムスキルとして実装しました。
カスタムスキルは名前を指定して、スキルを呼び出します。
例えば、こんな呼びかけになります。
「アレクサ、リモコンで照明をつけて」

「リモコン」の部分がスキルの名前になります。

AWS IoTのメッセージを送信するAlexaスキルのコード

AWS IoTのdeviceオブジェクトのpublishメソッドを実行することで、メッセージを送信します。

Alexaスキルの作成方法は過去記事を参照してください。
hi1280.hatenablog.com

まとめ

ラズパイでの赤外線による家電操作とAlexaスキルを組み合わせることでスマートホームっぽくなりました。
今回はスキルをカスタムスキルとして実装しましたが、スキルの名前をいちいち呼ぶのは面倒です。
スマートホームスキルとして実装すると名前を呼びかける必要がなくなるようです。
ただし、スマートホームスキルに対応しているデバイスがまだ少ないようなので、まだこれからという状況かと思います。
スマートホームスキルを複数の言語で開発する | ASK

Web画面経由でコマンドを操作する

Web画面経由でコマンドを操作してみました。
Node.jsでExpressを利用しています。

今回の実装時のポイントは以下の通りです。

Node.jsでコマンドを実行する

Node.jsの標準APIであるchild_processを使用します。
以下のようにexecメソッドでコマンドを実行することができます。

const { exec } = require('child_process');
exec('echo "The \\$HOME variable is $HOME"', (error, stdout, stderr) => {
  console.log(stdout);
});

画面を描画する

画面の描画にはejsを使いました。
ejsファイルではありますが、内容はHTMLそのものです。

ejs.renderFile('./views/index.ejs', (err, str) => {
  if (err) {
    res.send(err.message);
  }
  res.send(str);
});

感想

簡単なWebアプリケーションを作るのにExpressは楽だと思います。
今回の方法を使ってラズパイで作成した赤外線リモコンをWeb画面経由で操作しています。

hi1280.hatenablog.com

参考情報

Child Process | Node.js v9.4.0 Documentation

ラズパイの赤外線リモコンを高性能にした

hi1280.hatenablog.com

以前に作成したラズパイの赤外線リモコンを高性能なものにするために改良しました。
遠距離でも赤外線が届くようにするのと複数のリモコンに対応しました。

配線を変更

赤外線LEDを高出力なものに変更しました。

akizukidenshi.com

赤外線LEDを2つ付けて、広範囲に赤外線を出力するようにしました。

f:id:hi1280:20180123225338p:plain

複数のリモコンに対応

リモコンの数だけ以下のコマンドで赤外線のデータを記録します。

irrecord -f -d /dev/lirc0 --driver default  ~/lircd.conf

記録したlircd.conf全てを/etc/lirc/lircd.conf.d/に配置します。
/etc/lirc/lircd.confは以下の内容にします。

include "lircd.conf.d/*.conf"

これによって、/etc/lirc/lircd.conf.d/にある全ての赤外線のデータが読み込まれます。

感想

LEDを変えたことで、2mくらい離れていても反応するようになり、便利になりました。
赤外線を広範囲にし、複数のリモコンの赤外線データを扱えるようにしたことで、複数の機器を操作できるようになりました。

参考情報

複数のリモコンに対応
LIRC - Linux Infrared Remote Control

Electronでデスクトップを録画するアプリが簡単に作れました

ElectronはAtomに使われていたり、VSCodeに使われていたりとPCネイティブなアプリを作るために最近よく使われているライブラリです。
今まで使ったことがなかったので使ってみました。今回作ったアプリのリポジトリこちらです。
アプリ作成のポイントを紹介します。

題材

デスクトップのウィンドウやスクリーンを録画するアプリを作ります。

作り方

環境構築

Electronアプリを作るにあたってのテンプレートにはelectron-vueを使用します。
導入 · electron-vue

コマンド操作だけでElectron製のアプリを起動するところまで準備してくれます。

デスクトップの録画処理

Electronに用意されているAPIであるdesktopCapturerを使用すると、ウィンドウやスクリーンの動画を取得することができます。
desktopCapturer | Electron

// In the renderer process.
const {desktopCapturer} = require('electron')

desktopCapturer.getSources({types: ['window', 'screen']}, (error, sources) => {
  if (error) throw error
  for (let i = 0; i < sources.length; ++i) {
    if (sources[i].name === 'Electron') {
      navigator.mediaDevices.getUserMedia({
        audio: false,
        video: {
          mandatory: {
            chromeMediaSource: 'desktop',
            chromeMediaSourceId: sources[i].id,
            minWidth: 1280,
            maxWidth: 1280,
            minHeight: 720,
            maxHeight: 720
          }
        }
      }, handleStream)
      return
    }
  }
})

function handleStream (stream) {
  document.querySelector('video').src = URL.createObjectURL(stream)
}

desktopCapturer.getSourcesでウィンドウやスクリーンを取得することができます。
navigator.mediaDevices.getUserMediachromeMediaSourceIdに取得したsourceのidを指定することで各ウィンドウやスクリーンのStreamデータを取得することができます。
minWidthmaxWidthminHeightmaxHeightを変更することで動画のサイズを変更することができます。
maxWidthmaxHeightに指定した値のサイズまでの動画になります。

動画の保存にはWeb標準APIのMediaStream Recording APIを使用します。
MediaStream Recording API - Web APIs | MDN

<a id="download">Download</a>
<script>
  const downloadLink = document.getElementById('download');
  var handleSuccess = function(stream) {
    const options = {mimeType: 'video/webm'};
    const recordedChunks = [];
    const mediaRecorder = new MediaRecorder(stream, options);
    mediaRecorder.ondataavailable = (e) => {
      recordedChunks.push(e.data);
    };
    mediaRecorder.onstop = (e) => {
      downloadLink.href = URL.createObjectURL(new Blob(recordedChunks));
      downloadLink.download = 'video.webm';
    };
    mediaRecorder.start();
  };
  navigator.mediaDevices.getUserMedia({ audio: true, video: true })
      .then(handleSuccess);
</script>

navigator.mediaDevices.getUserMediaで取得したStreamデータでMediaRecorderインスタンスを作成することで、Streamデータを動画として保存することができます。

工夫したところ

録画開始や録画停止の際にショートカットキーを使えるようにしました。

Electronでは、ショートカットキーの設定にいくつかのアプローチがあります。
Keyboard Shortcuts | Electron

今回は、Local ShortcutsとGlobal Shortcutsを使いました。

Local Shortcuts

アプリのメニューを作り、メニュー項目を実行するショートカットキーを設定する方法です。
まずはメニューを作る必要があります。
Menu | Electron

メニューを作る場合、通常はMain processというElectronアプリのエントリーポイントとなるプロセスでメニューを作成する必要があります。
今回はメニュー項目の設定変更を画面描画を担当するプロセスであるRender process上で行う必要があったため、Render processでメニューを作成しました。
Electronのremoteモジュールを使用することでRender processでもメニューを作成することができます。

// In the renderer process.
import * as electron from 'electron'
const {Menu} = electron.remote

const template = [
  {
    label: '画面',
    submenu: [
      {
        label: '画面収録を開始',
        accelerator: 'CmdOrCtrl+P',
        click: function (menuItem, browserWindow, event) {
          browserWindow.webContents.send('startRecord')
        }
      }
    ]
  }
]
const menu = Menu.buildFromTemplate(template)
Menu.setApplicationMenu(menu)

メニューの作成は、buildFromTemplateメソッドを使用すると簡単です。
メニューの仕様に準拠したJavaScriptオブジェクトを渡すことで、オブジェクトの値に応じたメニューを作成してくれます。

acceleratorプロパティでショートカットキーを設定することができます。
Accelerator | Electron

clickプロパティでメニュー項目が選択された時の動作を記述することができます。
引数のbrowserWindowがRender processが動作するウィンドウなので、browserWindow.webContentsを介することで、Render processに処理を渡すことができます。
webContents | Electron

アプリのウィンドウがスクリーン上に存在しない場合、browserWindownullになるため注意が必要です。
今回のアプリでは、browserWindownullの場合、Main processからRender processに処理が流れるようにしています。
ElectronではIPCのAPIでプロセス間の通信を行うことが可能です。
ipcMain | Electron

Global Shortcuts

ショートカットキーのみを設定する方法です。アプリにフォーカスがなくても機能します。
Keyboard Shortcuts | Electron

// In the main process.
import { BrowserWindow, globalShortcut } from 'electron'
let mainWindow = new BrowserWindow({
  height: 563,
  useContentSize: true,
  width: 1000
})
globalShortcut.register('CommandOrControl+E', () => {
  mainWindow.webContents.send('stopRecord')
})

globalShortcutでショートカットキーを設定することができます。

感想

Webの技術でPCネイティブなアプリを作ることができました。
Webの技術でネイティブなアプリというとモバイル向けのCordovaが思い浮かびます。
Cordovaは複雑というイメージだったので、Electronもそんな感じかなというイメージでした。
触ってみると、Electronはシンプルで分かりやすかったですし、electron-vueのファイル構成もそんな感じでした。
Electronを使うとメニューを作るといったネイティブな機能が簡単に実現できるのが驚きでした。

アプリを使って実際に録画した動画です。
youtu.be

参考

MediaStream Recording APIの使い方を参考にしました
Recording Video from the User  |  Web  |  Google Developers

アプリの画面デザインを参考にしました
デスクトップを録画するアプリを書いた - Qiita

2017年で学んだ技術

今年を振り返る的な投稿です。
 今どきのソフトウェア開発ってなんだろうということに取り組んだ2017年でした。とりあえず新しい技術と言われるものを触れば何か見えてくるものがあるかもしれないと考えました。
 かの有名な石黒浩先生の講演を聴く機会があり、その影響です。なぜ一線級で研究ができているのかという問いに先生は、今の最先端の技術で何ができるかを知ることからスタートすると言っていました。そうしないと、新しいものは生み出せない。何が新しいか分からないから。自分もそういうところからスタートすべく取り組んでいます。

Azure(クラウド

機械学習

  • H2O.aiを使った機械学習モデルの作成
  • データ処理関連の講義を受講(データ蓄積、データ分析、データ可視化を広く学習)

IoT

  • ラズパイにセンサーつけて、データ収集して、クラウド上にデータを保持して、データを可視化する

Serverless

来年のテクノロジ・トレンドがガートナーから発表されていました。 enterprisezine.jp

ブロックチェーンとか、ARとかも押さえておいた方が良さそうです。来年の宿題にすることにします。

Trelloに登録したタスクの内容を知るAlexaスキルを作った

Amazon Echo Dotが我が家にも届いたので、Alexaスキルを作ってみました。
作ったのは、Trelloに登録したタスクの内容を知るスキルです。
なお、Alexaスキルは他ユーザに利用してもらうためにスキルを公開することもできますが、今回は個人用途で使用できればよかったので、Amazon Echo Dotでのテストまでを行なっています。

Alexaスキルを作成する

Amazonの開発者コンソールでAlexaスキルを作成する必要があります。
https://developer.amazon.com/home.html

ALEXA > Alexa Skills Kit > 新しいスキルを追加する を選びます。

スキル情報

まずは、スキル情報を設定します。

  • スキルの種類:カスタム対話モデル
  • 言語:Japanese
  • スキル名:スキルを特定する名称 ※ここではTrello
  • 呼び出し名:スキルを呼び出すときの名称 ※ここではトレロ
  • グローバルフィールドは全ていいえ

f:id:hi1280:20171209234029p:plain

対話モデル

次に対話モデルを設定します。

今回はスキルビルダーを使います。

f:id:hi1280:20171209234858p:plain

キルビルダーでは、作成するスキルで実行したい処理を呼び出す際にインテントという形で定義します。
インテントはブラウザ上で作成することができます。
一度インテントを作成すれば、JSON形式で記録されるので、再利用が可能です。
今回のインテントの定義は以下です。
https://github.com/hi1280/skill-sample-nodejs-trello/blob/master/InteractionModel.json

Code EditorのメニューからJSONファイルをインポートすることができます。

インテントを作成したら、保存及びビルドします。

f:id:hi1280:20171209235411p:plain

設定

次に設定画面が表示されます。

スキルが実行された時に呼び出すAWS Lambdaの関数を指定します。AWS Lambdaの関数の内容については後述します。

エンドポイントとして、AWS Lambda の ARN (Amazonリソースネーム)を指定します。

Lambda関数のトリガーとして、「Alexa Skills Kit」が指定されていないと、エラーになってしまいます。

f:id:hi1280:20171210000536p:plain

AWS Lambdaを作成する

Node.jsで下記のLambda関数を作りました。
GitHub - hi1280/skill-sample-nodejs-trello: AlexaスキルでTrelloのAPIを実行するサンプル

process.env.ALEXA_APP_IDはAlexaスキルのIDになります。
スキル情報のメニューで確認できます。

TrelloのAPI呼び出しにはnode-trelloというnpmモジュールを利用しています。
https://github.com/adunkman/node-trello

コードの解説

Alexaスキルを制御するコードの部分です。

const handlers = {
  'LaunchRequest': function() {
    this.emit('GetTrello');
  },
  'GetTrello': function() {
    callDoingTasks().then((result) => {
      this.response.speak(result);
      this.emit(':responseReady');
    }).catch((err) => {
      this.response.speak('失敗しました');
      this.emit(':responseReady');
    });
  },
  'AMAZON.HelpIntent': function() {
    const speechOutput = '利用するには、「トレロのタスクを教えて」と言ってください';
    const reprompt = 'どうしますか?';
    this.response.speak(speechOutput).listen(reprompt);
    this.emit(':responseReady');
  },
  'AMAZON.CancelIntent': function() {
    this.response.speak('終了します');
    this.emit(':responseReady');
  },
  'AMAZON.StopIntent': function() {
    this.response.speak('終了します');
    this.emit(':responseReady');
  },
};

GetTrelloがスキルビルダーで新たに作成したインテントの名前に対応しています。
該当のインテントのコマンドが呼ばれた場合に対応したJavaScriptの関数の処理が呼ばれます。

LaunchRequestはコマンドを指定しないでスキルを起動した場合のリクエストになります。
ここでは、GetTrelloと同じ処理を行なっています。

以下のインテントはビルトインのインテントです。

  • AMAZON.HelpIntent
  • AMAZON.CancelIntent
  • AMAZON.StopIntent

スキルの使い方を教えたり、スキルの実行を止めたりするインテントはあらかじめ定義されてます。
該当のインテントに対応する処理を記述します。

Amazon Echo Dotでのテスト

youtu.be

参考情報

公式ドキュメント
Alexa Skills Kitによるスキルの作成 | ASK

Node.js向けAlexaスキル作成用SDK
https://github.com/alexa/alexa-skills-kit-sdk-for-nodejs

注意事項

作成したスキルがAlexaアプリのスキル画面に表示されない場合、以下を疑った方が良いです。

開発したAlexa Skillが日本語版に出てこない場合 - Qiita

感想

今回のような単純にLambda関数を声で呼び出すのであれば簡単です。
対話を考慮したスキルになると難しそうです。
タイミングとかで声をうまく認識しないことが多々あります。

Amazon Echo Dot (Newモデル)、ブラック

Amazon Echo Dot (Newモデル)、ブラック