亚洲中字慕日产2020,大陆极品少妇内射AAAAAA,无码av大香线蕉伊人久久,久久精品国产亚洲av麻豆网站

資訊專欄INFORMATION COLUMN

助力中文文字識(shí)別突破,美團(tuán)公開首個(gè)真實(shí)場(chǎng)景招牌圖像數(shù)據(jù)集

fsmStudy / 1601人閱讀

摘要:美團(tuán)作為全球最大的本地生活服務(wù)平臺(tái),擁有由遍布全國(guó)的市場(chǎng)人員所拍攝的眾多門臉招牌圖片數(shù)據(jù)。中文在實(shí)際應(yīng)用場(chǎng)景的表現(xiàn)并不樂觀。美團(tuán)今年聯(lián)合國(guó)內(nèi)外知名科研機(jī)構(gòu)和學(xué)者,提出了中文門臉招牌文字識(shí)別比賽。是難得的用于研發(fā)和評(píng)估中文識(shí)別技術(shù)的數(shù)據(jù)集。

美團(tuán)作為全球最大的本地生活服務(wù)平臺(tái),擁有由遍布全國(guó)的市場(chǎng)人員所拍攝的眾多門臉招牌圖片數(shù)據(jù)。每張圖片都是由全國(guó)的不同個(gè)人,采用不同設(shè)備,在不同地點(diǎn),不同時(shí)間和不同環(huán)境下所拍攝的不同目標(biāo),是難得的可以公正評(píng)價(jià)算法魯棒性和識(shí)別效果的圖片數(shù)據(jù),挑戰(zhàn)也非常大。

近年來業(yè)界圍繞著文字檢測(cè)和文字識(shí)別提出了許多有效的算法和技術(shù)方案。由于之前公開的數(shù)據(jù)集普遍以英文為主,因此所提出的技術(shù)方案對(duì)中文特有問題關(guān)注不足。表現(xiàn)在以中文為主的實(shí)際應(yīng)用場(chǎng)景中,這些技術(shù)方案的結(jié)果與應(yīng)用預(yù)期差距較大。以美團(tuán)掌握的某典型中文圖片數(shù)據(jù)為例,在6000張圖的圖片數(shù)據(jù)集上(已去除文字無法辨識(shí)的圖片),測(cè)試了國(guó)內(nèi)最知名的三個(gè)AI開放平臺(tái),按字段統(tǒng)計(jì)識(shí)別率分別是94%,91% 和 86%,經(jīng)過努力我們也只達(dá)到 98%。中文OCR在實(shí)際應(yīng)用場(chǎng)景的表現(xiàn)并不樂觀。

在此次 ICDAR2019上,我們挑選出很能代表中文特點(diǎn)的餐飲商家的門臉招牌圖片來組織競(jìng)賽,這些招牌上的文字存在中文特有的設(shè)計(jì)和排版,同時(shí)也兼有自然場(chǎng)景文字識(shí)別中普遍存在的拍照角度、光照變化等干擾因素。我們希望通過競(jìng)賽引起同行們對(duì)中文識(shí)別的關(guān)注,群策群力解決中文識(shí)別的實(shí)際問題。

會(huì)議與大賽介紹

國(guó)際文檔分析與識(shí)別國(guó)際會(huì)議 (International Conference on Document Analysis and Recognition,ICDAR)是由國(guó)際模式識(shí)別學(xué)會(huì)(IAPR)組織的專業(yè)會(huì)議之一,專注于文本領(lǐng)域的識(shí)別與應(yīng)用。ICDAR大會(huì)每?jī)赡昱e辦一次,目前已發(fā)展成文字識(shí)別領(lǐng)域的旗艦學(xué)術(shù)會(huì)議。為了提高自然場(chǎng)景的文本檢測(cè)和識(shí)別水平,國(guó)際文檔分析和識(shí)別會(huì)議(ICDAR)于2003年設(shè)立了魯棒文本閱讀競(jìng)賽(“Robust Reading Competitions”)。至今已有來自89個(gè)國(guó)家的3500多支隊(duì)伍參與。

ICDAR 2019將于今年9月20-25日在澳大利亞悉尼舉辦。 美團(tuán)今年聯(lián)合國(guó)內(nèi)外知名科研機(jī)構(gòu)和學(xué)者,提出了"中文門臉招牌文字識(shí)別"比賽(ICDAR 2019 Robust Reading Challenge on Reading Chinese Text on Signboards)。

組織者

王棟、張睿、劉曦、周永生,美團(tuán)

白翔、廖明輝、楊明錕,華中科技大學(xué)

Baoguang Shi, Microsoft (Redmond,USA)

Shijian Lu, Nanyang Technological University (Singapore)

Dimosthenis Karatzas,Computer Vision Centre,UAB(Spain)

C. V. Jawahar,IIIT Hyderabad(India)

數(shù)據(jù)集介紹

美團(tuán)本次公開的數(shù)據(jù),由遍布全國(guó)的市場(chǎng)人員所拍攝的眾多門臉招牌圖片組成,共25000張。每張圖片是由完全獨(dú)立的不同個(gè)人,采用不同設(shè)備,在不同地點(diǎn),不同時(shí)間和不同環(huán)境下所拍攝的不同商家。該數(shù)據(jù)集以中文文字為主,也包含一定數(shù)量的英文和數(shù)字,英文和數(shù)字的占比介于 10% 和 30% 之間。標(biāo)注內(nèi)容比較完備,每張圖片均標(biāo)注了單個(gè)字符的位置和文本,以及各字符串的位置和文本。是難得的用于研發(fā)和評(píng)估中文識(shí)別技術(shù)的數(shù)據(jù)集。其中,20000張圖片用于訓(xùn)練,2000張用于驗(yàn)證,3000張用于測(cè)試。

比賽內(nèi)容

本次門臉招牌識(shí)別,共定義了 4 個(gè)任務(wù),分別如下:

TASK 1:招牌端到端文字識(shí)別

TASK 2:招牌文字行定位

TASK 3:招牌區(qū)域內(nèi)單字識(shí)別

TASK 4:招牌區(qū)域內(nèi)字符串識(shí)別

獎(jiǎng)勵(lì)方式

頒發(fā)獎(jiǎng)狀:按照最終成績(jī)進(jìn)行排名,以從高至低順序依次選取前三名,頒發(fā)獎(jiǎng)狀。
比賽獎(jiǎng)金:從高至低順序選取前三名參賽方為學(xué)校及科研院所等非盈利機(jī)構(gòu)。
獎(jiǎng)金詳細(xì)如下:

重要日期

2019年3月1日:報(bào)名通道開放

2019年3月18日:訓(xùn)練數(shù)據(jù)集開放

2019年4月15日:測(cè)試數(shù)據(jù)集分批開放

2019年4月16日:提交通道開放

2019年4月30日:提交截止日期

2019年5月10日:比賽最終報(bào)告提交

2019年9月20日:ICDAR 2019 大會(huì)召開

參賽報(bào)名

掃描下方二維碼,直接進(jìn)入報(bào)名鏈接報(bào)名。

報(bào)名鏈接地址: http://rrc.cvc.uab.es/?ch=12
報(bào)名鏈接二維碼:

參賽答疑與交流

參賽答疑郵箱:mtdptech@meituan.com(郵件標(biāo)題請(qǐng)注明 “ICDAR2019”)
加入?yún)①惤涣魑⑿湃?/p>

步驟1:微信添加 “MTDPtech02” 為好友(昵稱:美美),或掃描下方二維碼直接添加:

步驟2:回復(fù)美美 “ICDAR2019”,則會(huì)自動(dòng)將您加入ICDAR2019-ReCTS技術(shù)交流群

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://www.ezyhdfw.cn/yun/17937.html

相關(guān)文章

  • AI Challenger開賽,千萬量級(jí)數(shù)據(jù)開放,AI高手將上演巔峰對(duì)決

    摘要:月日,各項(xiàng)競(jìng)賽的排名將決定最終的成績(jī)排名。選手通過訓(xùn)練模型,對(duì)虛擬股票走勢(shì)進(jìn)行預(yù)測(cè)。冠軍將獲得萬元人民幣的獎(jiǎng)勵(lì)。 showImg(https://segmentfault.com/img/bVUzA7?w=477&h=317); 2017年9月4日,AI challenger全球AI挑戰(zhàn)賽正式開賽,來自世界各地的AI高手,將展開為期三個(gè)多月的比拼,獲勝團(tuán)隊(duì)將分享總額超過200萬人民幣的...

    Ali_ 評(píng)論0 收藏0
  • 深度學(xué)習(xí)在美團(tuán)點(diǎn)評(píng)的應(yīng)用

    摘要:基于深度學(xué)習(xí)的語義匹配語義匹配技術(shù),在信息檢索搜索引擎中有著重要的地位,在結(jié)果召回精準(zhǔn)排序等環(huán)節(jié)發(fā)揮著重要作用。在美團(tuán)點(diǎn)評(píng)業(yè)務(wù)中主要起著兩方面作用。 寫在前面美團(tuán)點(diǎn)評(píng)這兩年在深度學(xué)習(xí)方面進(jìn)行了一些探索,其中在自然語言處理領(lǐng)域,我們將深度學(xué)習(xí)技術(shù)應(yīng)用于文本分析、語義匹配、搜索引擎的排序模型等;在計(jì)算機(jī)視覺領(lǐng)域,我們將其應(yīng)用于文字識(shí)別、目標(biāo)檢測(cè)、圖像分類、圖像質(zhì)量排序等。下面我們就以語義匹配、圖...

    DirtyMind 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<