ML Kit のデジタルインク認識を使用すると、数百もの言語でデジタル表示面の手書き文字を認識できるほか、スケッチを分類することもできます。
試してみる
- サンプルアプリを試して、この API の使用例を確認してください。
始める前に
- プロジェクト レベルの
build.gradle
ファイルのbuildscript
セクションとallprojects
セクションの両方に Google の Maven リポジトリを組み込みます。 - ML Kit Android ライブラリの依存関係をモジュールのアプリレベルの Gradle ファイル(通常は
app/build.gradle
)に追加します。
dependencies {
// ...
implementation 'com.google.mlkit:digital-ink-recognition:18.1.0'
}
これで、Ink
オブジェクト内のテキストの認識を開始できます。
Ink
オブジェクトを作成する
Ink
オブジェクトを作成する主な方法は、タッチスクリーンに描画することです。Android では、この目的に Canvas を使用できます。タップイベント ハンドラは、次のコード スニペットに示す addNewTouchEvent()
メソッドを呼び出して、ユーザーが描画したストロークの点を Ink
オブジェクトに保存する必要があります。
この一般的なパターンを次のコード スニペットに示します。より完全な例については、ML Kit クイックスタート サンプルをご覧ください。
Kotlin
var inkBuilder = Ink.builder() lateinit var strokeBuilder: Ink.Stroke.Builder // Call this each time there is a new event. fun addNewTouchEvent(event: MotionEvent) { val action = event.actionMasked val x = event.x val y = event.y var t = System.currentTimeMillis() // If your setup does not provide timing information, you can omit the // third paramater (t) in the calls to Ink.Point.create when (action) { MotionEvent.ACTION_DOWN -> { strokeBuilder = Ink.Stroke.builder() strokeBuilder.addPoint(Ink.Point.create(x, y, t)) } MotionEvent.ACTION_MOVE -> strokeBuilder!!.addPoint(Ink.Point.create(x, y, t)) MotionEvent.ACTION_UP -> { strokeBuilder.addPoint(Ink.Point.create(x, y, t)) inkBuilder.addStroke(strokeBuilder.build()) } else -> { // Action not relevant for ink construction } } } ... // This is what to send to the recognizer. val ink = inkBuilder.build()
Java
Ink.Builder inkBuilder = Ink.builder(); Ink.Stroke.Builder strokeBuilder; // Call this each time there is a new event. public void addNewTouchEvent(MotionEvent event) { float x = event.getX(); float y = event.getY(); long t = System.currentTimeMillis(); // If your setup does not provide timing information, you can omit the // third paramater (t) in the calls to Ink.Point.create int action = event.getActionMasked(); switch (action) { case MotionEvent.ACTION_DOWN: strokeBuilder = Ink.Stroke.builder(); strokeBuilder.addPoint(Ink.Point.create(x, y, t)); break; case MotionEvent.ACTION_MOVE: strokeBuilder.addPoint(Ink.Point.create(x, y, t)); break; case MotionEvent.ACTION_UP: strokeBuilder.addPoint(Ink.Point.create(x, y, t)); inkBuilder.addStroke(strokeBuilder.build()); strokeBuilder = null; break; } } ... // This is what to send to the recognizer. Ink ink = inkBuilder.build();
DigitalInkRecognizer のインスタンスを取得する
認識を実行するには、Ink
インスタンスを DigitalInkRecognizer
オブジェクトに送信します。次のコードは、BCP-47 タグからこのような認識ツールをインスタンス化する方法を示しています。
Kotlin
// Specify the recognition model for a language var modelIdentifier: DigitalInkRecognitionModelIdentifier try { modelIdentifier = DigitalInkRecognitionModelIdentifier.fromLanguageTag("en-US") } catch (e: MlKitException) { // language tag failed to parse, handle error. } if (modelIdentifier == null) { // no model was found, handle error. } var model: DigitalInkRecognitionModel = DigitalInkRecognitionModel.builder(modelIdentifier).build() // Get a recognizer for the language var recognizer: DigitalInkRecognizer = DigitalInkRecognition.getClient( DigitalInkRecognizerOptions.builder(model).build())
Java
// Specify the recognition model for a language DigitalInkRecognitionModelIdentifier modelIdentifier; try { modelIdentifier = DigitalInkRecognitionModelIdentifier.fromLanguageTag("en-US"); } catch (MlKitException e) { // language tag failed to parse, handle error. } if (modelIdentifier == null) { // no model was found, handle error. } DigitalInkRecognitionModel model = DigitalInkRecognitionModel.builder(modelIdentifier).build(); // Get a recognizer for the language DigitalInkRecognizer recognizer = DigitalInkRecognition.getClient( DigitalInkRecognizerOptions.builder(model).build());
Ink
オブジェクトを処理する
Kotlin
recognizer.recognize(ink) .addOnSuccessListener { result: RecognitionResult -> // `result` contains the recognizer's answers as a RecognitionResult. // Logs the text from the top candidate. Log.i(TAG, result.candidates[0].text) } .addOnFailureListener { e: Exception -> Log.e(TAG, "Error during recognition: $e") }
Java
recognizer.recognize(ink) .addOnSuccessListener( // `result` contains the recognizer's answers as a RecognitionResult. // Logs the text from the top candidate. result -> Log.i(TAG, result.getCandidates().get(0).getText())) .addOnFailureListener( e -> Log.e(TAG, "Error during recognition: " + e));
上のサンプルコードでは、認識モデルがすでにダウンロードされていることを前提としています(次のセクションで説明します)。
モデルのダウンロードの管理
デジタル インク認識 API は数百の言語をサポートしていますが、認識を行う前に各言語のデータをダウンロードする必要があります。言語ごとに約 20 MB のストレージが必要です。これは RemoteModelManager
オブジェクトによって処理されます。
新しいモデルをダウンロードする
Kotlin
import com.google.mlkit.common.model.DownloadConditions import com.google.mlkit.common.model.RemoteModelManager var model: DigitalInkRecognitionModel = ... val remoteModelManager = RemoteModelManager.getInstance() remoteModelManager.download(model, DownloadConditions.Builder().build()) .addOnSuccessListener { Log.i(TAG, "Model downloaded") } .addOnFailureListener { e: Exception -> Log.e(TAG, "Error while downloading a model: $e") }
Java
import com.google.mlkit.common.model.DownloadConditions; import com.google.mlkit.common.model.RemoteModelManager; DigitalInkRecognitionModel model = ...; RemoteModelManager remoteModelManager = RemoteModelManager.getInstance(); remoteModelManager .download(model, new DownloadConditions.Builder().build()) .addOnSuccessListener(aVoid -> Log.i(TAG, "Model downloaded")) .addOnFailureListener( e -> Log.e(TAG, "Error while downloading a model: " + e));
モデルがすでにダウンロードされているかどうかを確認する
Kotlin
var model: DigitalInkRecognitionModel = ... remoteModelManager.isModelDownloaded(model)
Java
DigitalInkRecognitionModel model = ...; remoteModelManager.isModelDownloaded(model);
ダウンロードしたモデルを削除する
デバイスのストレージからモデルを削除すると、空き容量が増えます。
Kotlin
var model: DigitalInkRecognitionModel = ... remoteModelManager.deleteDownloadedModel(model) .addOnSuccessListener { Log.i(TAG, "Model successfully deleted") } .addOnFailureListener { e: Exception -> Log.e(TAG, "Error while deleting a model: $e") }
Java
DigitalInkRecognitionModel model = ...; remoteModelManager.deleteDownloadedModel(model) .addOnSuccessListener( aVoid -> Log.i(TAG, "Model successfully deleted")) .addOnFailureListener( e -> Log.e(TAG, "Error while deleting a model: " + e));
テキスト認識の精度を高めるためのヒント
テキスト認識の精度は、言語によって異なる場合があります。精度は文章のスタイルにも依存します。デジタル インク認識はさまざまな書き込みスタイルに対応するようにトレーニングされていますが、結果はユーザーによって異なる場合があります。
テキスト認識の精度を高める方法は次のとおりです。これらの手法は、絵文字、自動描画、図形の描画分類には適用されません。
書き込み領域
多くのアプリには、ユーザー入力用の明確な書き込み領域があります。記号の意味は、記号を含む書き込み領域のサイズに対する記号のサイズによって部分的に決まります。たとえば、小文字または大文字の「o」または「c」、カンマとスラッシュの違いなどです。
認識ツールに書き込み領域の幅と高さを指定すると、精度が向上します。ただし、認識ツールは、書き込み領域に 1 行のテキストのみが含まれていることを前提としています。物理的な書き込み領域が 2 行以上書けるほど十分な大きさの場合は、1 行のテキストの高さを推定できる高さの WritingArea を渡すと、より良い結果が得られます。認識ツールに渡す WritingArea オブジェクトは、画面上の物理的な書き込み領域と完全に一致している必要はありません。このように WritingArea の高さを変更すると、言語によっては効果が異なります。
書き込み領域を指定する場合は、ストロークの座標と同じ単位で幅と高さを指定します。x 座標と y 座標の引数には単位の指定は必要ありません。API はすべての単位を正規化するため、重要なのはストロークの相対サイズと位置のみです。システムに適したスケールで座標を渡すことができます。
前のコンテキスト
前コンテキストは、認識しようとしている Ink
のストロークの直前に続くテキストです。認識ツールに前のコンテキストを伝えることで、認識を支援できます。
たとえば、筆記体では「n」と「u」がよく間違えられます。ユーザーがすでに単語の一部「arg」を入力している場合、ユーザーは「ument」または「nment」と認識されるストロークを続けて入力する可能性があります。前コンテキスト「arg」を指定すると、単語「argument」の方が「argnment」よりも可能性が高いため、あいまいさが解消されます。
前コンテキストは、認識ツールが単語の切れ目や単語間のスペースを特定する際にも役立ちます。スペース文字は入力できますが、描画することはできません。認識ツールは、1 つの単語が終了して次の単語が始まるタイミングをどのように判断するのでしょうか。ユーザーがすでに「hello」と書いていて、続けて「world」と書いた場合、認識ツールは前後の文脈なしで「world」という文字列を返します。ただし、前コンテキスト「hello」を指定すると、モデルは先頭にスペースが付いた「world」という文字列を返します。これは、「helloword」よりも「hello world」の方が意味があるためです。
できるだけ長い前コンテキスト文字列を指定します。最大 20 文字(スペースを含む)。文字列が長い場合、認識ツールは最後の 20 文字のみを使用します。
次のコードサンプルは、書き込み領域を定義し、RecognitionContext
オブジェクトを使用して前コンテキストを指定する方法を示しています。
Kotlin
var preContext : String = ...; var width : Float = ...; var height : Float = ...; val recognitionContext : RecognitionContext = RecognitionContext.builder() .setPreContext(preContext) .setWritingArea(WritingArea(width, height)) .build() recognizer.recognize(ink, recognitionContext)
Java
String preContext = ...; float width = ...; float height = ...; RecognitionContext recognitionContext = RecognitionContext.builder() .setPreContext(preContext) .setWritingArea(new WritingArea(width, height)) .build(); recognizer.recognize(ink, recognitionContext);
ストロークの順序
認識精度はストロークの順序に左右されます。認識ツールは、人が自然に書く順序でストロークが入力されることを想定しています(英語の場合は左から右)。最後の単語から始まる英語の文を書くなど、このパターンから外れた場合、結果の精度が低下します。
別の例として、Ink
の中央にある単語が削除され、別の単語に置き換えられている場合です。リビジョンは文の途中にあるが、リビジョンのストロークはストローク順序の最後にある。この場合は、新しく書き込まれた単語を API に個別に送信し、独自のロジックを使用して結果を以前の認識と統合することをおすすめします。
曖昧な形状に対処する
認識ツールに提供されたシェイプの意味があいまいな場合があります。たとえば、角が非常に丸い長方形は、長方形または楕円形のいずれかとして認識される可能性があります。
このような不明なケースは、認識スコアが利用可能な場合は、そのスコアを使用して処理できます。スコアを提供するのは形状分類子のみです。モデルの信頼度が高い場合、上位の結果のスコアは 2 番目に良い結果のスコアよりもはるかに高くなります。不確実性が高い場合、上位 2 つの結果のスコアは近くなります。また、形状分類子は Ink
全体を単一の形状として解釈します。たとえば、Ink
に長方形と楕円が隣接して含まれている場合、単一の認識候補で 2 つの形状を表すことができないため、認識ツールはどちらか(またはまったく異なるもの)を結果として返すことがあります。