
最近摸鱼整的,水平有限~

塞尔达玩家一定不会陌生,希卡文是游戏《塞尔达传说旷野之息》中一种虚构的文字,在希卡族的建筑上都能找到它的影子,之前实现了一个简单的希卡文生成与翻译的工具,不过关键的文字解析实现的并不优雅,使用隐藏水印的方式将一些关键信息隐藏在导出的图片中,图片压缩后隐藏信息很容易丢失,导致解析失败。有兴趣的同学不妨看看上一篇文章:摸一个塞尔达希卡文字转换器。
后面研究了下 OCR 的技术实现,手撸了个简单版的希卡文字 OCR 解析器,简单扯扯实现,水平有限望指点蛤~
光学字符识别(英:Optical Character Recognition,OCR )是指对文本资料的图像文件进行分析识别处理,获取文字及版面信息的过程。
工具地址在这:
虚构世界的文字往往是基于现实文字创造的,希卡文与英文字母数字与四个特殊符号(共 40 个字符)相对应,规则很简单,都在下图:

我们导出的希卡文图片长这样:

开始吧~
我们导出希卡文的图片颜色和文字排列都是不确定的,我们首先需要将图片做一个归一化处理,因为我们只关心图片的文字内容,所以首先要剔除颜色的干扰,我们可以将图片统一处理黑白色调的图片。
这个过程称作二值化 ,二值化后的图片更能摒除干扰突出图片的内容特征,二值化后的图片可以很方便的被序列化生成图片指纹。
二值化(英语:Binarization )是图像分割的一种最简单的方法。二值化可以把灰度图像转换成二值图像。把大于某个临界灰度值的像素灰度设为灰度大值,把小于这个值的像素灰度设为灰度小值,从而实现二值化。

图片二值化主要流程如下:

我们以上面的图片为例,图片的灰度处理比较简单,将 rgb 通道的颜色按 r * 0.299 + g * 0.587 + b * 0.114 的比值相加就能得到灰度值,因为灰度图片的 rgb 通道的值都是相同的,我们只取一个通道的值用于下一步计算。
const canvasToGray = (canvas) => { const ctx = canvas.getContext('2d'); const data = ctx.getImageData(0, 0, canvas.width, canvas.height); const calculateGray = (r, g, b) => parseInt(r * 0.299 + g * 0.587 + b * 0.114); const grayData = []; for (let x = 0; x < data.width; x++) { for (let y = 0; y < data.height; y++) { const idx = (x + y * data.width) * 4; const r = data.data[idx + 0]; const g = data.data[idx + 1]; const b = data.data[idx + 2]; const gray = calculateGray(r, g, b); grayData.push(gray); } } return grayData; }; 灰度处理后的图片如下:

阈值计算是图片二值化非常关键的一步,相关的算法也很多这里,这里我们先试试一种最简单的均值哈希( aHash )算法,算法很简单,求图片灰度像素的总和再除以像素点数量得出均值作为二值化的阈值。直接上代码:
const average = (grayData) => { let sum = 0; for (let i = 0; i < grayData.length; i += 1) { sum += data[i]; } return sum / grayData.length; }; 其他计算阈值的算法还有:
感兴趣的同学可以了解下,otsu 的生成的二值化效果比较好,后面我们会有 otsu 来处理计算图片阈值,这里也贴一个 otsu 的实现:
const otsu = (grayData) => { let ptr = 0; // 记录 0-256 每个灰度值的数量,初始值为 0 let histData = Array(256).fill(0); let total = grayData.length; while (ptr < total) { let h = grayData[ptr++]; histData[h]++; } // 总数(灰度值 x 数量) let sum = 0; for (let i = 0; i < 256; i++) { sum += i * histData[i]; } // 背景(小于阈值)的数量 let wB = 0; // 前景(大于阈值)的数量 let wF = 0; // 背景图像(灰度 x 数量)总和 let sumB = 0; // 存储最大类间方差值 let varMax = 0; // 阈值 let threshold = 0; for (let t = 0; t < 256; t++) { // 背景(小于阈值)的数量累加 wB += histData[t]; if (wB === 0) continue; // 前景(大于阈值)的数量累加 wF = total - wB; if (wF === 0) break; // 背景(灰度 x 数量)累加 sumB += t * histData[t]; // 背景(小于阈值)的平均灰度 let mB = sumB / wB; // 前景(大于阈值)的平均灰度 let mF = (sum - sumB) / wF; // 类间方差 let varBetween = wB * wF * (mB - mF) ** 2; if (varBetween > varMax) { varMax = varBetween; threshold = t; } } return threshold; }; 求得了阈值后我们再进行二值化就很简单了,不过这里有注意点,由于我们生成的图片文字颜色和背景颜色都是不确定的,我们求得阈值后,进行二值化时图片的背景颜色可能大于阈值,也有可能小于阈值,这样就没法统一所有图片的输出。这里我们需要规定二值化的图片输出,我们统一将背景的颜色设置为黑色(数值为 0 ),文字颜色设置为( 255 白色)。
由于我们生成的图片比较简单,图片的背景颜色取第一个像素的 rgb 值就能确认了,代码实现也很简单:
const binaryzatiOnOutput= (originCanvas, threshold) => { const ctx = originCanvas.getContext('2d'); const imageData = ctx.getImageData(0, 0, originCanvas.width, originCanvas.height); const { width, height, data } = imageData; // 第一像素的值即为背景色值 const head = (data[0] + data[1] + data[2]) / 3; // 如果背景颜色大于阈值,则背景与文字的颜色的值则需要调换 const color = head > threshold ? { foreground: 0, background: 255 } : { foreground: 255, background: 0 }; for (let x = 0; x < width; x++) { for (let y = 0; y < height; y++) { const idx = (x + y * width) * 4; const avg = (data[idx] + data[idx + 1] + data[idx + 2]) / 3; const v = avg > threshold ? color.foreground : color.background; data[idx] = v; data[idx + 1] = v; data[idx + 2] = v; data[idx + 3] = 255; } } ctx.putImageData(imageData, 0, 0); return originCanvas.toDataURL(); } 还有一点需要注意下,这里二值处理的是原图,不是灰度处理后的图片。
完整的代码戳这,二值化的图片如下:

经过上面的二值化处理我们已经将图片统一处理成黑底白字的图片,操作也特别简单,但生产级别的 OCR 实现往往还会涉及复杂的图片预处理,如图片的投影矫正、旋转矫正、裁剪、图片降噪、锐化等操作,这些预处理都是为了生成一张只包含文字信息的干净图片,因为会很大程度的影响下一步文字切割的效果。
同字面描述一样,我们得想办法把一个个希卡文字提取出来,下面介绍一种简单的切割算法:投影切割算法。
基本思路是:
直接看图容易理解一点,先来切割行,我们图片大小是 700 x 600,从上至下扫描每一行的像素,黑色像素记为 0 白色像素记为 1,统计每行 1 的个数,我们可以得到下面折线图:


横坐标对应图片的高度,纵坐标对应每行像素点的个数,我们可以很直观知道纵坐标为 0 的部分都是图片的空白间距,有值的部分则是文字内容所在的行,行高则是所跨越的区间。
通过上一步的扫描行我们已经可以切割出文字内容所占的行,下一步就是从左到右扫描文字行每列的像素值,同样是黑色记 0 白色记 1,统计 1 的个数,以第一行文字为例,其扫描的出来折线图如下:


嗯,这个我知道,和切割行一样,只要将纵坐标有值得部分切出来就好!
但这里会有问题,如果简单的按纵坐标有值的区间去拆分文字,最后一个文字就会被拆分左右两部部分:

原因也很好理解,最后一个文字是左右结构的,中间有空隙隔开,所以文字被拆开了。

可以看看下面的几个特殊的字符,一般拆分文字时我们需要考虑左右或者上下结构的文字。
上下结构的文字:


左右结构的文字:


针对这些文字我们应该如何处理呢?我们可以很容易观察出希卡文字都是正方形的,那么每个字体宽高比例应该 1 : 1,如果我们能知道文字的宽度或者高度,那我们就是如何拼接文字区域了。如何计算文字的宽度或高度呢?
处理其实很简单,针对整张图片,横向扫描一次,纵向扫描一次,可以得到文字内容在横纵方向上的投影大小,我们取横纵投影中最大的区间就是标准文字的大小,拆分时文字块不足标准大小则继续与下个投影区间的文字块合并,直到达到文字的标准大小。
我们先来实现横纵向扫描和求取最大文字块的方法
// 横纵向扫描 function countPixel(imageData, isRow = false) { const { width, height, data } = imageData; const offsets = [0, 1, 2]; // 背景色 const head = offsets.map((i) => data[i]); const pixel = []; if (isRow) { // 从上至下,横向扫描 for (let i = 0; i < height; i++) { let count = 0; for (let j = 0; j < width; j++) { const index = (i * width + j) * 4; const isEqual = offsets.every( (offset) => head[offset] === data[index + offset] ); count += isEqual ? 0 : 1; } pixel.push(count); } } else { // 从左到右,纵向扫描 for (let i = 0; i < width; i++) { let count = 0; for (let j = 0; j < height; j++) { const index = (j * width + i) * 4; const isEqual = offsets.every( (offset) => head[offset] === data[index + offset] ); count += isEqual ? 0 : 1; } pixel.push(count); } } return pixel; } // 拆分文字与背景区间 function countRanges(counts) { const groups = []; let foreground = 0; let background = 0; counts.forEach((count) => { if (count) { foreground += 1; if (background) { groups.push({ background: true, value: background }); background = 0; } } else { background += 1; if (foreground) { groups.push({ foreground: true, value: foreground }); foreground = 0; } } }); if (foreground) { groups.push({ foreground: true, value: foreground }); } if (background) { groups.push({ background: true, value: background }); } return groups; } // 获取文字内容的最大区间 function getMaxRange(data) { return data.reduce((max, it) => { if (it.foreground) { return Math.max(max, it.value); } return max; }, 0); } 计算图片中文字大小:
const imageData = {}; // 逐行扫描 const rowsRanges = countRanges(countPixel(imageData, true)); // 逐列扫描 const colsRanges = countRanges(countPixel(imageData, false)); // 计算横纵像素分布得出字体内容的大小(字体正方形区域) const fOntRange= Math.max( getMaxRange(rowsRanges), getMaxRange(colsRanges) ); 合并左右上下结构的文字区间:
// 合并结构分离的文字区间 function mergeRanges(data, size) { const merge = []; // chunks 用来保存小于标准文字大小区域 let chunks = []; data.forEach((item) => { if (chunks.length) { chunks.push(item); const value = chunks.reduce((sum, chunk) => sum + chunk.value, 0); // 当前换成的区域大小大于或接近标准文字大小则合并成一块 if (value >= size || Math.pow(value - size, 2) < 4) { merge.push({ foreground: true, value, }); chunks = []; } return; } // 区域内容小于标准文字大小是推入 chunks if (item.foreground && item.value < size) { chunks = [item]; return; } merge.push(item); }); return merge; } 统一处理后的区块信息如下,我们只需按顺序裁剪出 foreground 与其对应的区块大小 value 就好了。
[ { "background": true, "value": 115 }, { "foreground": true, "value": 70 }, { "background": true, "value": 30 }, { "foreground": true, "value": 70 }, { "background": true, "value": 30 }, { "foreground": true, "value": 70 }, { "background": true, "value": 30 }, { "foreground": true, "value": 70 }, { "background": true, "value": 115 } ] 剩下的就是算各种偏移值然后从 cnavas 中切割出单个的文字块并记录下位置信息,具体的实现可以戳这里,就不细讲了,切割出来文字内容如下:

切割出文字后,剩下的就是文字的翻译了。对于希卡文我们知道它与英文的映射规则,每个希卡符号背后对都对应一个英文符号,我们可以生成 40 个英文字符对应的希卡符号图片作为标准字符图片,那么希卡图片翻译就可以简单理解为:将切割的图片与已知的 40 标准字符图片逐个进行相似性比较,找出相似度最高的图片就是目标字符。

上面为 abcdefghijklmnopqrstuvwxyz0123456789.-!? 对应的希卡符号。
我们该如何进行比较两张图片的相似性呢?其实我们已经完成了很大一部分工作,就差临门一脚了。既然一张已经二值化处理成了黑白图片,我们将图片的黑色像素输出为 0 白色部分输出为 1 这样就可以得到一张图片的二进制哈希,至于两张图片的相似性就是比较两张图片哈希同一位置的差异个数,其实就是计算两张图片的哈希的汉明距离,汉明距离越小,两张图片越相似。我们只需要简单改变下二值化输出的代码就能得到图片的哈希。
const binaryzatiOnHash= (originCanvas, threshold) => { const ctx = originCanvas.getContext('2d'); const imageData = ctx.getImageData(0, 0, originCanvas.width, originCanvas.height); const { width, height, data } = imageData; // 第一像素的值即为背景色值 const head = (data[0] + data[1] + data[2]) / 3; // 如果背景颜色大于阈值,则背景与文字的颜色的值则需要调换 const color = head > threshold ? { foreground: 0, background: 255 } : { foreground: 255, background: 0 }; const hash = []; for (let x = 0; x < width; x++) { for (let y = 0; y < height; y++) { const idx = (x + y * width) * 4; const avg = (data[idx] + data[idx + 1] + data[idx + 2]) / 3; const v = avg > threshold ? color.foreground : color.background; hash.push(v ? 1 : 0); } } return hash; } 汉明距离的比较也十分简单:
const hammingDistance = (hash1, hash2) => { let count = 0; hash1.forEach((it, index) => { count += it ^ hash2[index]; }); return count; }; 这就是相似图片比较最核心的代码了,因为我们并不能保证切割出来的文字块大小能标准图片一样,所以我们会将切割图片和标准图片都缩小成 8 x 8 大小再进行比较,两张图片相似性比较主要流程大致如下:
之前详细整理过一篇相似图片识别的文章,对此感兴趣的同学可以看看这篇文章:相似图片识别的朴素实现。
回到我们希卡文翻译上,所以我们现在要做只有三步:
代码实现也比较简单:
async function createImageFingerprints(image) { const cOntents= splitImage(image); return contents.map(({ canvas, ...args }) => { // 统一缩小到 8 像素 const imageData = resizeCanvas(canvas, 8); const hash = binaryzationOutput(imageData); return { ...args, hash, }; }); } // 生成标准字符指纹 function createSymbols(fingerprints) { const WORDS = 'abcdefghijklmnopqrstuvwxyz0123456789.-!?'; return fingerprints.map((it, index) => { return { name: WORDS[index], value: it.hash, }; }); } // 匹配出最相似的字符 function mapSymbols(fingerprints, symbols) { return fingerprints.map(({ hash, ...position }) => { const isEmpty = hash.every((v:) => v === hash[0]); if (isEmpty) { return ' '; } let diff = Number.MAX_SAFE_INTEGER; let word = '*'; symbols.forEach((symbol) => { const distance = hammingDistance(hash, symbol.value); // 汉明距离大于标识相似度偏差较大排除 if (distance < diff) { diff = distance; word = symbol.name; } }); return { ...position, word, diff, }; }); } 使用大概是这样的:
/** * @param imageUrl 解析的图片 * @param mapUrl 标准字符图片 */ export async function readMetaInfo(imageUrl, mapUrl) { const mapImage = await loadImage(mapUrl); const mapImageFingerprints = await createImageFingerprints(mapImage, false); const symbols = createSymbols(mapImageFingerprints); const readImage = await loadImage(imageUrl); const readImageFingerprints = await createImageFingerprints( readImage, true ); const results = mapSymbols(readImageFingerprints, symbols); console.log(results); } 完整代码实现可以戳这里,至此一个简简简单版的希卡文 OCR 翻译器就完成了~
摸鱼做的一个小东西,粗略的了解了下 OCR 的实现还是很开心的。
1 Vegetable 2021-03-19 10:03:52 +08:00 好活 |
2 fate 2021-03-19 10:07:08 +08:00 牛皮! |
3 server 2021-03-19 10:09:49 +08:00 这要是摸鱼,那我摸的啥 |
4 1239305697 2021-03-19 10:15:35 +08:00 能做成 emoji 吗,以后代码就用这个来写了 |
5 test3207 2021-03-19 10:15:42 +08:00 ( blog 证书过期啦! |
7 PopRain 2021-03-19 10:28:50 +08:00 训练一下 tesseract ocr,再和自己算法 PK 一下 |
8 Jrue0011 2021-03-19 10:34:25 +08:00 好,就当我已经学会了 |
9 kassadin 2021-03-19 10:35:09 +08:00 |
11 crackhopper 2021-03-19 10:46:59 +08:00 已经知道了希卡文映射字母,这个先验就很强了;但还知道了图片汉明距离可以作为相似度,那就基本已经求解了。 我还以为是根据字符出现的语义和场景,做统计,分词,用语言学+算法那套搞的。 |
12 crackhopper 2021-03-19 10:49:44 +08:00 哦哦,是做 OCR 。我错了。我以为是做语言识别和翻译。 |
13 kinglisky OP @crackhopper 整不了那么高深的东西,就是切割文字,然后做个图片的相似度判断,嘿嘿~ |
14 8bit 2021-03-19 11:06:49 +08:00 最喜欢这种认真搞不务正业的活 |
15 iamsk 2021-03-19 11:27:13 +08:00 给小哥点赞,编程最有趣的就是这些了 |
16 RRRoger 2021-03-19 11:34:44 +08:00 太强了 |
17 huanghui 2021-03-19 11:38:06 +08:00 via iPhone 好厉害~ |
18 crayygy 2021-03-19 11:40:35 +08:00 via Android 哦,这个很强 |
19 cpstar 2021-03-19 11:45:56 +08:00 额。。。我想说个啥。。。似乎这是最基本的图像识别技术,不外乎到底是什么文字,而在于原始图片库里字符和图形的对应关系。至于 OCR,那要处理的是各种变形,稍微给扭曲一下啥的,能识别。。。 我能想到的就是机车号牌识别,字母数字都都有一定的标准(式样),号牌格式也有一定的标准,于是各种歪七扭八的角度,快速识别内容。 |
20 cpstar 2021-03-19 11:47:53 +08:00 至于这个希卡文,我不清楚背景是个啥,这不还是英语么,只不过弄了一对奇怪字符去对应,看似密码学,最最最最入门的那种加密方法 |
21 icyalala 2021-03-19 12:36:33 +08:00 @cpstar 塞尔达传说,是一个非常知名的 Switch 独占游戏。 任天堂为游戏里的古代希卡族设计了一种文字,就是帖子最上方游戏截图里那种印章样的图案。 单纯技术上讲可能的确没那么复杂,但是楼主做得东西很有趣~ |
22 kinglisky OP |
23 xarthur 2021-03-19 12:45:21 +08:00 这个厉害。 |
24 nnikooih 2021-03-19 12:47:09 +08:00 讲的蛮清楚 |
25 Torpedo 2021-03-19 3:15:57 +08:00 讲的挺好。关键更厉害的是有能力把这个议题搞的这么清楚。。。 |
26 wowboy 2021-03-19 14:12:47 +08:00 哈哈哈,想起了本科室友做的车牌识别,也是用的这种方法 |
27 loading 2021-03-19 14:18:06 +08:00 via Android 这个和当年同学的车牌识别差不多。 |
28 fengjianxinghun 2021-03-19 14:28:11 +08:00 有点意思。正好玩塞尔达。 |
29 whoosy 2021-03-19 14:35:26 +08:00 你管这叫摸鱼? |
30 Lemeng 2021-03-19 14:36:48 +08:00 这个真还有点意思 |
31 SeaRecluse 2021-03-19 14:40:49 +08:00 虽然很棒 但是大人时代变了,传统 OCR × AI 梭哈 √ |
32 laqow 2021-03-19 16:04:53 +08:00 via Android 其实难度在算法,刨去算法剩下的框架应该都一样的 |
33 Microi 2021-03-19 16:06:53 +08:00 21 世纪社畜 海拉鲁考古学家 |
34 SetsunaX 2021-03-19 16:38:43 +08:00 厉害啊~ |
35 Thymolblue 2021-03-19 17:56:50 +08:00 帮大忙了! |
36 reiji 2021-03-19 18:43:30 +08:00 这个题目有意思,实现也很有启发,我有空的时候试一下用 tensorflow.js 来实现下 |
37 HeapOverflow 2021-03-19 18:52:21 +08:00 via iPhone 这摸的是鲸鱼吧 |
38 HaroldZzz 2021-03-19 22:19:29 +08:00 硬核海拉鲁老流氓 |
39 agagega 2021-03-19 22:37:22 +08:00 via iPhone 为啥比较 hash 的汉明距离就可以?两张图片如果有差,hash 不会很不一样吗? |
40 codehz 2021-03-20 07:51:57 +08:00 via Android @agagega 因为都是机器生成的,所以一定是完全一致的,这个方法就可行了。。。(甚至连投影都不需要修复 |
41 steveway 2021-03-20 09:33:07 +08:00 那是真滴 nb! |
42 Deplay 2023-01-31 08:52:16 +08:00 en ,这个似乎只是非常基础的识别.. 随便拿个 mnist 的 example 改一下 dataset ,效果应该会好很多 不过里面一些思路还是值得借鉴的 |