99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

AI怎樣模仿人類大腦的注意力機制?

0
分享至


圖源:Pixabay

目前,人們對AI談得最多的是deepseek(簡稱DS)。這匹來自中國本土的黑馬,闖入全球視野,一度擾亂美國股市,在 AI 領域掀起了一場軒然大波。

不過,正如DS創始人梁文鋒所言,DS的成功是因為站在了巨人的肩上,這個巨人,可以有不同的理解,最靠近的當然是Meta的開源代碼(例如PyTorch和LLaMA)。說遠一些,這個巨人是多年來科學家們推動發展的各種AI技術。然而最準確的說法,應該是兩年之前OpenAI發布的聊天機器人ChatGPT,它是DS框架的技術基礎。

ChatGPT的名字中,Chat的意思就是對話,這個詞在AI中涉及的領域是NLP(自然語言處理);后面三個字母的意思:G生成型(generative)、P預訓練(pre-training)、T變形金剛(Transformer。其中最重要的是“變形金剛”,而變形金剛的關鍵是“注意力機制”(Attention。下面簡單介紹一下幾個名詞。

01

變形金剛

英語單詞Transformer,可以指變壓器或變換器。另外也可以翻譯成變形金剛,那是一種孩子們喜歡的玩具,可以變換成各種角色,包括人類和機械。而這兒的transformer是谷歌大腦2017年推出的語言模型。如今,無論是自然語言的理解,還是視覺處理,都用變形金剛統一起來,用到哪兒都靈光,名副其實的變形金剛!所以,我們就用這個名字。

變形金剛最早是為了NLP[1]的機器翻譯而開發的,NLP一般有兩種目的:生成某種語言(比如按題作文),或者語言間的轉換(比如翻譯)。這兩種情況,輸入輸出都是一串序列,此種神經網絡模型稱為“序列建模”。變形金剛的目的就是序列建模,它的結構可以分為“編碼器”和“解碼器”兩大部分(圖1)。序列建模是AI研究中的一項關鍵技術,它能夠對序列數據中的每個元素進行建模和預測,在NLP中發揮著重要作用。


圖1:Transformer模型及其中的注意力機制

圖1右圖顯示了“編碼器”和“解碼器”的內部結構框圖。它們都包含了多頭注意力層(Multi-Head Attention)、前向傳播層(Feed Foward)和殘差歸一化層(Add&Norm

神經網絡模型的發展,從1958 年早期感知機的“機器”模型,到后來的算法模型,經歷了漫長的過程。變形金剛的序列建模能力,超越了之前的循壞神經網絡RNN,和卷積神經網絡CNN,近幾年,成為了新的序列建模大殺器,廣泛應用于機器翻譯、閱讀理解和實體識別等任務中。

與變形金剛(Transformer)相關的論文,是Google機器翻譯團隊,在行業頂級會議NIPS上發表的。論文的題目是《Attention is all you need(你所需要的,就是注意力)》[2],一語道明了變形金剛的重點是“注意力”。圖1右的Transformer模型中,紅色曲線指出的,是3個主要的注意力機制框圖。

因此,ChatGPT大獲成功,憑借的是強調“注意力機制”的變形金剛;介紹注意力機制之前,首先簡要介紹NLP的幾個基本概念。例如,什么是“詞向量”,什么是詞崁入?有那些語言模型?

02

自然語言處理

實現人工智能有兩個主要的方面,一是圖像識別,二是理解人類的語言和文字,后者被稱為自然語言處理,縮寫成NLP(Natural Language Processing)。

2.1

什么是NLP?

自然語言處理,就是利用計算機為工具對人類自然語言的信息進行各種類型處理和加工的技術。NLP以文字為處理對象。

最早的計算機被發明出來,是作為理科生進行復雜計算的工具。而語言和文字是文科生玩的東西,如何將這兩者聯系起來呢?為了要讓機器處理語言,首先需要建立語言的數學模型。稱之為語言模型。ChatGPT就是一個語言模型。

語言模型最直接的任務就是處理一段輸入的文字,不同的目的應該有不同的模型,才能得到不同的輸出。例如,假設輸入一段中文:“彼得想了解機器學習”,模型可能有不同的輸出:

1,如果是中文到英文的機器翻譯模型,輸出可能是:“Peter wants to learn about machine learning”;

2,如果是聊天機器人,輸出可能是:“他需要幫助嗎?“;

3,如果是書店的推薦模型,輸出可能是一系列書名:“《機器學習簡介》、《機器學習入門》“;

4,如果是情感分析,輸出可能是:“好“……

語言模型都有兩大部分:編碼器和解碼器,分別處理輸入和輸出。

此外,對語言模型比較重要的一點是:它的輸出不見得是固定的、一一對應的,這從我們平時人類的語言習慣很容易理解。對同樣的輸入,不同的人有不同的回答,在不同環境下的同一個人,也會有不同的回答。也就是說,語言模型是一個概率模型。

2001年,本吉奧等人將概率統計方法引入神經網絡,并使用前饋神經網絡進行語言建模,提出了第一個神經網絡的語言概率模型,可以預測下一個單詞可能的概率分布,為神經網絡在NLP領域的應用奠定了基礎。

2.2

詞向量(Word Vectors)

語言模型中的編碼器,首先就需要給語言中的單詞編碼。世界上的語言各種各樣,它們也有其共性,都是由一個一個小部分(基本單元)組成的,有的基本單元是“詞“,有的是”字“,有的可能是詞的一部分,例如詞根。我們給基本單元取個名字,叫”token“。例如,以后在解釋語言處理過程時,我們就將中文中的“字”作為一個”token“,而將英文中的一個“word”,算一個”token“。

計算機只認數字,不識”token“。所以首先得將”token“用某種數學對象表示,學者們選中了“矢量”

最早期對詞向量的設想,自然地聯想到了“字典”。所以,最早給詞匯編碼采用的方法叫做Onehotencoding(獨熱編碼),若有個字典或字庫里有N個單字,則每個單字可以被一個N維的獨熱向量代表。下面用具體例子說明這種方法。

例如,假設常用的英文單詞大約1000個(實際上,英語有約1300萬個單詞),按照首個字母順序排列起來,詞典成為一個1000個詞的長串序列。每個常用詞在這個序列中都有一個位置。例如,假設“Apple”是第1個,“are” 是第2個,“bear” 是第3個,“cat” 第4個,“delicious” 第5個……等等。那么,這5個words,就分別可以被編碼成5個1000維的獨熱矢量,每一個獨熱矢量對應于1000維空間的1個點:


apple
1
0 0 0 0…………………..0

are
0
1 0 0 0…………………..0

bear
0
0 1 0 0 0…………..…..0

cat
0
0 0 1 0 0 0……………..0

delicious
0
0 0 0 1 0 0 0…………..0

獨熱編碼概念簡單,不過,你很快就能發現這不是一個好的編碼方法。它至少有如下幾個缺點。

一是每個詞向量都是獨立的,互相無關,詞和詞之間沒有關聯,沒有相似度。實際上,詞和詞之間關聯程度不一樣。既然我們將單詞表示成矢量,而空間中的矢量互相是有關聯的。有的靠的近,有的離得遠。這種“遠近”距離也許可以用來描述它們之間的相似度。比如說,bear和cat都是動物,相互比較靠近,而apple是植物,離他們更遠一點。

二是這種編碼法中,每個詞向量只有一個分量是1,其它全是0,這種表示方法太不經濟,浪費很多空間。在1000維空間中,非常稀疏地散發著1000個點。這也使得空間維度太大,不利計算。


圖2:詞向量

目前NLP中使用比較多的是約書亞·本吉奧等人2000年在一系列論文中提出的技術,后來經過多次改進,如今被統稱為“詞嵌入”(Word embedding。它是指把一個維數為所有詞的數量的高維空間嵌入到一個維數低得多的連續向量空間中,每個單詞或詞組被映射為實數域上的向量。例如,圖2左圖中的1000維詞向量,被嵌入到一個2維空間(圖2右圖)中之后,將同類的詞匯分類放到靠近的2維點,例如右上方靠近的3個點分別代表3個哺乳動物。

詞嵌入中這個“維數低得多的向量空間”,到底是多少維呢?應該是取決于應用。直觀來說,每一個維度可以編碼一些意思,例如語義空間可以編碼時態、單復數和性別等等。那么,我們利用“詞嵌入”的目的是:希望找到一個N維的空間,足夠而有效地編碼我們所有的單詞。

當然,詞嵌入的具體實現方法很復雜,維數可以比1000小,但比2大多了,在此不表。

2.3

NLP和神經網絡

在變形金剛之前的NLP,是用循環神經網絡RNN、遞歸神經網絡、雙向和深度RNN、或基于RNN改進的LSTM等實現的。可以使用上述的同一種網絡結構,復制并連接的鏈式結構來進行自然語言處理,每一個網絡結構將自身提取的信息傳遞給下一個繼承者。見圖3。


圖3:RNN鏈接受上下文單詞,預測目標單詞

語言模型的目的就是通過句子中每個單詞的概率,給這個句子一個概率值P。即通過計算機系統對人輸入問題的理解,利用自動推理等手段,自動求解答案并做出相應的回答。

循環神經網絡RNN是在時間維度展開,處理序列結構信息。遞歸神經網絡在空間維度展開,處理樹結構、圖結構等復雜結構信息。

LSTM等模型和transformer的最大區別是:LSTM等的訓練是迭代的,是一個一個字的來,當前這個字過完LSTM單元,才可以進行下一個字的輸入。但transformer使用了注意力機制,可以并行計算,所有字同時訓練,大大提高了效率。并行計算中,使用了位置嵌入(positional encoding)來標識這些字的先后順序。那么,什么是“注意力機制”?

03

“注意力機制”

3.1

什么是注意力機制?

神經網絡的思想最早是來源于生物學的神經網絡,但是,現代的深度學習卻早已脫離了對大腦的模仿。不過,人們在AI研究中碰到困難時,總免不了要去對比一下生物大腦的運行機制。這也是“注意力機制”這個概念的來源。

注意力機制是人類大腦的一種天生的能力。我們?類在處理信息時,顯然會過濾掉不太關注的信息,著重于感興趣的信息,于是,認知專家們將這種處理信息的機制稱為注意?機制。

例如,我們在看親友的照片時,先是快速掃過,然后通常更注意去識別其中的人臉,將更多的注意力放在照片呈現的人物、時間、和地點上。當我們閱讀一篇新的文章時,注意力首先放在標題上,然后是開頭的一段話,還有小標題等等。

人類的大腦經過長期的進化,類似于機器學習中應用了最優化的學習方法,形成了效率頗高的結構。試想,如果人腦對每個局部信息都不放過,那么必然耗費很多精力,把人累死。同樣地,在人工智能的深度學習網絡中,引進注意?機制,才能簡化網絡模型,以使用最少的計算量,有效地達到目的。大腦回路的結構方式,肯定影響著大腦的計算能力。但是,到目前為止,除了在一些非常簡單的生物體中,我們仍然沒有看到任何大腦的具體結構。不過,研究AI的專家們,有自己的辦法來實現他們的目標,例如循環神經網絡,長短期記憶,都解決了部分問題。

當科學家們利用循環神經網絡,處理NLP 任務時,長距離“記憶”能力一直是個瓶頸,而現在引入的“注意力機制”,有效地緩解了這一難題。此外,從節約算力的角度考慮,也有必要用“注意力機制”,從大量信息中,篩選出少量重要信息,并聚焦到這些重要信息上,忽略大多不重要的信息。

3.2

注意力機制的種類

注意力機制可以按照不同的需要來分類,這兒我們只解釋與Transformer相關的幾種結構。

1,硬注意力機制:選擇輸入序列某一個位置上的信息,直接舍棄掉不相關項。換言之,決定哪些區域被關注,哪些區域不被關注,是一個“是”或“不是”的問題,某信息或“刪”,或“留”,取其一。例如,將圖像裁剪,文章一段全部刪去,屬于此類。

2,軟注意力機制,即通常所說的“注意力機制”:選擇輸入序列中的所有信息,但用0到1之間的概率值,來表示關注程度的高低。也就是說,不丟棄任何信息,只是給他們賦予不同的權重,表達不同的影響力。

3,“軟”vs“硬”:硬注意力機制,只考慮是和不是,就像2進制的離散變量;優勢在于會節省一定的時間和計算成本,但是有可能會丟失重要信息。離散變量不可微分,很難通過反向傳播的方法參與訓練。而軟注意力機制,因為對每部分信息都考慮,所以計算量比較大。但概率是連續變量,因此軟注意力是一個可微過程,可以通過前向和后向反饋學習的訓練過程得到。變形金剛中使用的是“軟注意力機制”,見圖4a。圖中輸入是Q、K、V,分別代表Query(查詢)、Key(關鍵)、Value(數值)。

4,自注意力機制:如果圖4a中的Q、K、V都從一個輸入X產生出來,便是“自注意力機制” (圖4b)。它的意思是:對每個輸入賦予的權重取決于輸入數據之間的關系,即通過輸入項內部之間的相互博弈決定每個輸入項的權重。因為考慮的是輸入數據中每個輸入項互相之間的關聯,因此,對輸入數據而言,即考慮“自己”與“自己”的關聯,故稱“自”注意力機制。自注意力機制在計算時,具有并行計算的優勢。使輸入序列中的每個元素能夠關注并加權整個序列中的其他元素,生成新的輸出表示,不依賴外部信息或歷史狀態。自注意力通過計算每個元素對其他所有元素的注意力權值,然后應用這些權值于對應元素本身,得到一個加權平均的輸出表示。


圖4:各種注意力機制

5,注意力機制與自注意力機制的區別:注意力機制的權重參數是一個全局可學習參數,對于模型來說是固定的;而自注意力機制的權重參數是由輸入決定的,即使是同一個模型,對于不同的輸入也會有不同的權重參數。注意力機制的輸出與輸入的序列長度可以不同;而自注意力機制的的輸出輸入序列長度是相同的。注意力機制在一個模型中通常只使用一次,作為編碼器和解碼器之間的連接部分;而自注意力機制在同一個模型中可以使用很多次,作為網絡結構的一部分。注意力機制將一個序列映射為另一個序列;而自注意力機制捕捉單個序列內部的關系。

6,交叉注意力機制:考慮兩個輸入序列(X1、X2)內部變量之間的關聯,見圖4c。

7,遮罩(Masked)注意力機制:在計算通道中,加入一個遮罩,遮擋住當前元素看不見(關聯不到)的部分,見圖4d。

8,多頭自注意力機制:由多個平行的自注意力機制層組成。每個“頭”都獨立地學習不同的注意力權重,最后綜合合并這些“頭”的輸出結果,產生最終的輸出表示。多頭機制能夠同時捕捉輸入序列在不同子空間中的信息,從而增強模型的表達能力,見圖4e。

3.3

注意力機制如何工作?

最基本的注意力機制如圖5a所示,它的輸入是Q、K、V,分別代表Query(查詢)、Key(關鍵)、Value(數值)。具體而言,Q、K、V都可以用矩陣表示。計算的步驟如下:算出QK的點積,得到他們的相似度,經過softmax函數作用歸一化之后,得到相互影響的概率A,然后,將A作用到V上,最后得到的V‘即為注意力。


圖5:注意力機制的計算

乍一看上面的敘述有點莫名其妙,這幾個Q、K、V是何方神圣?從哪里鉆出來的?

首先,我們舉一個自注意力機制的例子,用一個通俗的比喻解釋一下。自注意力機制中的Q、K、V,都是由輸入的詞向量產生出來的。比如,老師去圖書館想給班上學生找“貓、狗、兔子”等的書,老師可能會與管理員交談,說:“請幫忙找關于養貓狗兔的書”。那么,老師的查詢之一可能是,Query:養貓書、管理員給老師幾個書名Key:《貓》、《如何養貓》……,還從圖書館的計算機資料庫中得到相關信息Value:這幾本書的作者、出版社、分類編號等等。

上面例子中,輸入的序列詞向量是老師說的那句話的編碼矩陣,即圖4b中的輸入X。然后,從如下計算得到矩陣Q、K、V:

Q = X Wq,

K = X Wk,

V = X Wv。

這兒的Wq 、Wk 、Wv 是將在訓練中確定的網絡參數。

圖5是注意力機制計算過程的示意圖。右下角的方框里,是注意力機制的計算公式。公式中有一個乘積項:QKT,意思是Q和K的內積。兩個向量的內積,等于它們的模相乘,再乘以它們之間夾角的cosine函數,因此可以描述兩個向量接近的程度。內積越大,表示越接近。計算公式括號內的分母:Dk開方,代表注意力機制框圖中的“Scale” (進行縮放)部分。這兒Dk是KT的維數,除上維數開方的目的是穩定學習過程,防止維度太大時“梯度消失”的問題。然后,點積加縮放后的結果,經softmax歸一化后得到相互影響概率A。最后,再將結果A乘以V,得到輸出V',這個輸出矢量描述了輸入矢量X中各個token之間的自注意力。

綜上所述,從自注意力機制,可以得到輸入詞序列中詞與詞之間的關聯概率。比如說,假設輸入的文字是:“他是學校足球隊的主力所以沒有去上英語課”,訓練后可以得到每個字之間相關情況的一種概率分布。但是,字之間的相關情況是很復雜的,有可能這次訓練得到一種概率分布(“他”和“球”有最大概率),下次得到另外一種完全不同的概率分布(“他”和“課”有最大概率)。為了解決這種問題,就采取多算幾次的辦法,被稱為“多頭注意力機制”。就是將輸入矢量分成了幾個子空間的矢量,一個子空間叫一個“頭”。

也可以使用上面所舉老師去圖書館找書的例子,除了“貓“和”書“關聯之外,狗、兔子……等都可能和”書“關聯起來,也可以使用“多頭注意力機制”來探索。

參考資料:

[1]NLPhttps://en.wikipedia.org/wiki/Natural_language_processing

[2]Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia. Attention Is All You Need. 2017-12-05. arXiv:1706.03762

撰文 |張天蓉

來源:知識分子

編輯:姬子隰

轉載內容僅代表作者觀點

不代表中科院物理所立場

如需轉載請聯系原公眾號

1.2.

3.

4.

5.

6.

7.

8.

9.

10.

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
70年代末,中國從日本進口了大量化肥,發現袋子是上好的尼龍布料

70年代末,中國從日本進口了大量化肥,發現袋子是上好的尼龍布料

南權先生
2025-05-29 17:06:57
瘋了嗎?從112跌到1.58,年報又大降90%,高盛、摩根卻瘋狂抄底

瘋了嗎?從112跌到1.58,年報又大降90%,高盛、摩根卻瘋狂抄底

八百者也
2025-06-01 15:14:58
那年,成都少婦與黑人,視頻全網瘋傳!

那年,成都少婦與黑人,視頻全網瘋傳!

倉一胤
2025-05-16 23:19:32
藍鯨新聞:蘇超10元票被炒到兩三百,同區有賣500仍供不應求

藍鯨新聞:蘇超10元票被炒到兩三百,同區有賣500仍供不應求

懂球帝
2025-06-01 21:34:09
局勢升級!烏軍攻擊俄機場,41架核戰轟被摧毀?澤連斯基態度轉變

局勢升級!烏軍攻擊俄機場,41架核戰轟被摧毀?澤連斯基態度轉變

荷蘭豆愛健康
2025-06-02 01:24:23
揭秘!廣東賽前在球員通道,杜潤旺要揍徐昕,吉吉被叫叔叔

揭秘!廣東賽前在球員通道,杜潤旺要揍徐昕,吉吉被叫叔叔

大昆說臺球
2025-06-01 17:28:54
曾經紅極一時,如今卻“跌落神壇”的5大運動品牌,穿過3個算你牛

曾經紅極一時,如今卻“跌落神壇”的5大運動品牌,穿過3個算你牛

時尚搭配師Nicole
2025-05-23 13:55:28
臺灣知名演員“突傳去世”! 享年40歲

臺灣知名演員“突傳去世”! 享年40歲

郭茂辰海峽傳真
2025-05-24 21:24:34
藏海傳:48歲的余男香肩一露,張婧儀前面的29集白演了

藏海傳:48歲的余男香肩一露,張婧儀前面的29集白演了

娛樂故事
2025-06-01 08:48:10
妻子出軌,丈夫將15公分蠟燭塞進妻子的陰道內

妻子出軌,丈夫將15公分蠟燭塞進妻子的陰道內

胖胖侃咖
2025-04-13 08:00:08
人活多久,看吃飯就知道,壽命短的人,吃飯一般有這2個特征

人活多久,看吃飯就知道,壽命短的人,吃飯一般有這2個特征

健康八條
2025-05-29 22:04:49
扮豬吃老虎?和大S對比,僅僅一個粽子,暴露出了馬筱梅的情商之高

扮豬吃老虎?和大S對比,僅僅一個粽子,暴露出了馬筱梅的情商之高

手工制作阿殲
2025-06-02 00:45:16
丟人丟到國外了?萬千惠袒胸露乳走紅毯,被多次驅趕還賴著不走

丟人丟到國外了?萬千惠袒胸露乳走紅毯,被多次驅趕還賴著不走

聚合大娛
2025-05-28 16:12:33
突發重磅消息,俄“鋼鐵”上將凋零在北頓涅茨克

突發重磅消息,俄“鋼鐵”上將凋零在北頓涅茨克

每日一見
2025-06-01 12:49:44
為啥說中文是外國語言壓縮包?看完分享,直拍大腿,老祖宗語言開掛

為啥說中文是外國語言壓縮包?看完分享,直拍大腿,老祖宗語言開掛

墻頭草
2025-05-27 09:00:39
豆瓣9.4分,零差評,這部高分神作太治愈了

豆瓣9.4分,零差評,這部高分神作太治愈了

來看美劇
2025-05-07 23:35:22
起風了,南京樓市變了,南京奧體南房價從4.5萬變成3.7萬

起風了,南京樓市變了,南京奧體南房價從4.5萬變成3.7萬

有事問彭叔
2025-05-31 17:11:08
老祖宗常告誡“勿近白虎”,“白虎”究竟是什么?真有這么可怕嗎

老祖宗常告誡“勿近白虎”,“白虎”究竟是什么?真有這么可怕嗎

大千世界觀
2025-05-22 16:57:05
71歲的趙雅芝為啥不敢退休?葉童暗諷,兒子黃愷杰稱她家庭主婦

71歲的趙雅芝為啥不敢退休?葉童暗諷,兒子黃愷杰稱她家庭主婦

寶馬哦112
2025-05-31 16:23:56
2007年薄一波逝世后,子女公開發表聲明,澄清父親身上的兩大謠言

2007年薄一波逝世后,子女公開發表聲明,澄清父親身上的兩大謠言

阿器談史
2025-01-04 16:20:16
2025-06-02 02:36:49
中科院物理所 incentive-icons
中科院物理所
愛上物理,改變世界。
9042文章數 136212關注度
往期回顧 全部

科技要聞

熱搜!雷軍疑回應余承東

頭條要聞

選舉臨近 尹錫悅、文在寅、樸槿惠、李明博均出面站臺

頭條要聞

選舉臨近 尹錫悅、文在寅、樸槿惠、李明博均出面站臺

體育要聞

一邊倒的歐冠決賽,青春無敵的新科冠軍

娛樂要聞

等等小花給鄧超拍雜志 插畫由小花繪制

財經要聞

油價繼續下跌?歐佩克宣布將再度增產

汽車要聞

零跑汽車5月交付量達45,067臺 穩居新勢力前三

態度原創

旅游
教育
健康
公開課
軍事航空

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

教育要聞

普通人唯一出路就是高考?高考對一個人的影響,到底有多大?

唇皰疹和口腔潰瘍是"同伙"嗎?

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美防長在香會大肆渲染中國威脅 中方回應

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 玛曲县| 南皮县| 交口县| 白朗县| 绍兴县| 永胜县| 菏泽市| 桦南县| 马山县| 鞍山市| 新竹县| 东海县| 新蔡县| 芷江| 邵武市| 乡城县| 基隆市| 蒙阴县| 措美县| 临泽县| 宣武区| 蒙城县| 邵东县| 天峨县| 泸西县| 澳门| 青神县| 体育| 滨海县| 襄樊市| 榆中县| 两当县| 东城区| 六枝特区| 岫岩| 锡林浩特市| 汤阴县| 宜宾县| 遂昌县| 浙江省| 彭阳县|