最近中文字幕在线mv视频_好爽…又高潮了免费毛片 _亚洲av无码不卡一区二区三区_日出水了特别黄的视频


首頁
產(chǎn)品系列
行業(yè)應用
渠道合作
新聞中心
研究院
投資者關系
技術支持
關于創(chuàng)澤
| En
 
  當前位置:首頁 > 新聞資訊 > 機器人知識 > 自然語言處理技術五大技術進展和四大應用與產(chǎn)品  
 

自然語言處理技術五大技術進展和四大應用與產(chǎn)品

來源:阿里機器智能      編輯:創(chuàng)澤      時間:2020/6/23      主題:其他   [加盟]
在自然語言處理技術的應用和研究領域發(fā)生了許多有意義的標志性事件,我們將從“技術進展”、“應用與產(chǎn)品”兩大維度進行回顧。

2019 年,技術進展方面主要體現(xiàn)在預訓練語言模型、跨語言 NLP/無監(jiān)督機器翻譯、知識圖譜發(fā)展 + 對話技術融合、智能人機交互、平臺廠商整合AI產(chǎn)品線。

1  預訓練語言模型

隨著 2018 年底 Google 提出預訓練語言模型 BERT,在多項 NLP 任務上獲得更優(yōu)效果,預訓練語言模型的研究與應用被學術界和工業(yè)界視為 NLP 領域的一項重大突破,將 NLP 問題的解決方式從以往的為每個任務單獨設計復雜的模型逐漸演變成了預訓練 + 微調的范式,讓眾多 NLP 應用能夠享受到大語料預訓練模型帶來的紅利,在通用的預訓練模型的基礎上加入簡單的任務層,并結合自己場景的少量語料就可以獲得一個不錯的領域 NLP 模型。

至此開啟了自然語言處理的新篇章。

在 2019 年,各個研究機構和公司在 BERT 的基礎上進一步創(chuàng)新,紛紛提出了自己的預訓練模型,如:Facebook 發(fā)布的 RoBERTa,CMU 發(fā)布的 XLNet,Stanford 發(fā)布的 ELECTRA,還有百度的 ERNIE 模型,阿里的 structBERT 模型, 華為的 NEZHA,哈工大和科大訊飛也都提出了自己的模型,不斷刷新 NLP 任務的最好成績。

這新的工作總結起來,主要來自訓練任務設計和訓練算法兩個方面。

訓練任務設計

進行更加精細的語義粒度建模,包括引入更細粒度的建模對象和更加精細的刻畫語義關聯(lián)。

比如 “全詞 Mask” 或者 “Knowledge Masking”,技術在 MLM 預訓練任務中 Mask 整個詞而不是單個 Token,進而提升了任務難度使得 BERT 學到更多語義信息,哈工大和科大訊飛聯(lián)合發(fā)布的中文 BERT 模型以及 NEZHA 模型中得到了應用;再比如引入更多類型的句間關系,從而能夠更加準確描述語義關聯(lián)性,進而提升語義匹配等方面能力,這在阿里和螞蟻團隊的 BERT 模型中得到體現(xiàn)。

利用新的機器學習方法建模

包括 CMU 和 Google 聯(lián)合發(fā)布的 XLNet 使用了 Autoencoder 和 Auto-regressive 兩種方案;斯坦福大學提出的 ELECTRA 模型,引入對抗機制來進行更好的 MLM 學習。華盛頓大學和 Facebook 聯(lián)合發(fā)布的 SpanBERT 模型還引入了 Span 預測任務。這些方案應用更學習方法來建模文字之間的聯(lián)系,從而提升模型效果。

訓練算法設計

針對模型的易用性的問題,減少模型參數(shù),或者降低模型的復雜度,包括 Google 發(fā)布的 ALBERT 使用了詞表 embedding 矩陣的分解與中間層的共享。

提高訓練速度的優(yōu)化

包括混合精度訓練,用 FP16 來進行權重,激活函數(shù)和梯度等的表示;LAMB 優(yōu)化器通過一個自適應式的方式為每個參數(shù)調整 learning rate,模型訓練能夠采用很大的 Batch Size; 這些方法極大地提高了訓練速度。

阿里的 structBERT 模型通過引入更多模型和任務結構化信息,提升語言表示能力。在Gluebench mark 上多次名列前矛和保持領先位置。通過蒸餾和 CPU 加速,RT 提高了 10x,finetuned 的模型給多個業(yè)務場景帶來了明顯提升,上線了 AliNLP 平臺。

預訓練語言模型在大規(guī)模無監(jiān)督文本上進行預訓練,將得到的詞和句子的表示遷移到廣泛的下游任務上,包括文本匹配,文本分類,文本抽取,閱讀理解,機器問答等不同的場景。如阿里語言模型在 MS MARCO 問答評測,TREC Deep Learning 評測上都取得了第一名的好成績。

下游的任務可以在低資源的情況下快速獲得一個不錯的解決方案,極大的提升了 NLP 算法的應用落地能力。

2  跨語言 NLP/無監(jiān)督機器翻譯

作為預訓練語言模型的擴展,F(xiàn)acebook 的研究人員提出了跨語言的語言模型預訓練 “Cross-lingual Language Model Pretraining”,僅使用單語數(shù)據(jù)的無監(jiān)督訓練和使用平行語料的有監(jiān)督訓練的條件下,模型有效學習了跨語言文本表征,在多語言分類和無監(jiān)督機器學習等任務上,都比之前的最優(yōu)結果有顯著的提升。

繼 2018 年 Google 預訓練語言模型 BERT 橫掃 主流 NLP 任務之后,2019 年  Facebook 發(fā)布了新型跨語言預訓練語言模型 XLM,實現(xiàn)不同語言在統(tǒng)一嵌入空間的表征共享,并在無監(jiān)督機器翻譯任務上帶來顯著的質量提升。在探索大規(guī)模、多語言神經(jīng)機器翻譯方向上,Google、阿里巴巴等進行了有效探索,通過同時在數(shù)十乃至數(shù)百種語向的平行語料上訓練一個模型,而不是對各個語向分別建模,實現(xiàn)語義映射關系共享,不僅壓縮了模型數(shù)量,同時普遍提升了小語種翻譯效果。

過去一年來,多語言 NLP 技術的研究成果主要集中在機器翻譯(特別是無監(jiān)督的機器翻譯),跨語言詞向量,多語言 NER,依存句法分析,詞對齊和多語言詞典生成等方向。

由于跨語言詞向量的學習/映射是其中的關鍵步驟,目前的無監(jiān)督/跨語言的 NLP 任務在相近的語言之間(如英語/法語,英語/西班牙語等)效果最好,在不同的語言家族間(如英語/越南語)效果還是有較大提升空間。

3  知識圖譜發(fā)展+對話技術融合

隨著數(shù)據(jù)量的積累和應用對數(shù)據(jù)質量和結構要求的提升,近幾年知識圖譜又成為一項熱點技術開始被關注。

知識圖譜技術領域在 2019 年的發(fā)展,包括領域知識圖譜的構建和整合(金融、企業(yè)等)、圖譜平臺化標準能力的建設(schema 定義 + 構建 + 調用)、圖譜應用算法建設(基于圖譜數(shù)據(jù)的圖模型 + 規(guī)則推理等);并基于構建的圖譜數(shù)據(jù)和能力,開始在更多的業(yè)務場景得到應用(搜索推薦內容理解和挖掘、金融風控和決策、對話理解和內容生成等)。

在知識圖譜和對話結合的技術方向,對話技術在問答和任務式對話近幾年已形成了一定的技術框架和業(yè)務覆蓋,開始需要解決一些對知識理解 + 答案專業(yè)性要求更高的領域場景(理財助理等)。

對話技術結合知識圖譜的領域知識完整度 + 結構化質量優(yōu)勢來進行覆蓋,可以解決相應場景下語料標注(意圖理解)和專家配置(對話流程 + 響應生成)上的不足,進一步提升對話覆蓋和響應質量。融合知識圖譜對話這個方向,在 2020 年會有更多的真實場景落地和覆蓋。

4  智能人機交互

自然語言理解和深度問答匹配技術在學術和工業(yè)界持續(xù)發(fā)發(fā)展,并且已經(jīng)在全域業(yè)務和場景有了大規(guī)模應用,基于預訓練語言模型進一步帶來性能的提升。

機器閱讀理解成為低成本通用技術,圍繞百科、政策法規(guī)、商品詳情頁、說明書等場景構建應用中臺能力,接入效率有了很大提升。結合圖-文的多模態(tài) VQA 問答技術在行業(yè)中率先孵化,理解商品詳情頁長圖進行問答成為一項新的競爭力。

對話(Dialog)技術能力進一步發(fā)展,但是在端到端的基于數(shù)據(jù)驅動的對話狀態(tài)跟蹤和對話策略還是只能在限定范圍內進行探索,工業(yè)場景基于對話平臺構建的任務型機器人成為了主流的實現(xiàn)方案。

多語言技術實現(xiàn)新語言的快速拓展,基于 Cross-Lingual 構建多語言語言模型,在遠距離語言對在英 -> 中、英 -> 泰遠距離語言對上超越 Google,拓展一個新語言從去年的 2 個月縮短到 2 周。

對話生成技術開始取得突破,基于結構化知識的引入提升生成的可控性,賣點的生成帶來導購轉化率的提升。

5  平臺廠商整合AI產(chǎn)品線

隨著 AI 技術發(fā)展和 AI 應用的需求,AI 技術框架的成熟(Tensorflow、PyTorch等),AI 技術能力逐漸被標準化為一系列 AI 平臺類產(chǎn)品,面向企業(yè)和開發(fā)者,提供更低門檻和更高效率的 AI 應用支持。

對話類平臺,Google 從 2016 年開始發(fā)布 Assistant 對話助手,這幾年陸續(xù)發(fā)布了 Google Home(現(xiàn)在整合到 Nest 智能家居品牌),Duplex 語音電話,以及收購了 API.AI 對話開發(fā)平臺;今年 Google 已基本整合這些對話產(chǎn)品線,基本布局了對話現(xiàn)有的平臺 + 終端,現(xiàn)成一個整體的對話產(chǎn)品線。

AI 類平臺方面,Amazon 自 2017 年發(fā)布 SageMaker 機器學習平臺產(chǎn)品,今年進一步基于 SageMaker 整合 AI 開發(fā)過程,同時打通下游技術框架和上游 AI 應用,整合 AI 產(chǎn)品線。類似阿里的機器學習平臺 PAI,定位成面向企業(yè)和開發(fā)者的一站式機器學習平臺。

2019 年,應用與產(chǎn)品方面主要體現(xiàn)在機器翻譯、對話系統(tǒng)、多輪對話智能服務、智能語音應用持續(xù)發(fā)展。

6  機器翻譯

機器翻譯的產(chǎn)品發(fā)展延續(xù)了之前的趨勢,在通用領域(新聞),特定領域(電商,醫(yī)療等)擴展了更多的語言方向,支持了更豐富的業(yè)務場景,并持續(xù)帶來商業(yè)價值。阿里巴巴在翻譯干預和智能泛化方向進行了卓有成效的探索,把業(yè)務知識更好地融合到神經(jīng)網(wǎng)絡翻譯框架中,大大提升了垂直場景下關鍵信息的翻譯準確率。

高價值和高敏感內容的翻譯目前仍離不開人工,因此在計算機輔助翻譯(CAT)引入智能算法實現(xiàn)人機協(xié)同翻譯,以及機器翻譯后編輯(MTPE)等新型生產(chǎn)模式,也受到越來越多的關注。阿里巴巴、騰訊在自動后編輯(APE)、交互式翻譯(IMT)都開始有產(chǎn)品推出,并在實際業(yè)務中落地。

除了文本翻譯之外,更多的多模態(tài)翻譯應用場景出現(xiàn),如語音翻譯在會議同傳,雙語字幕,翻譯機硬件上的嘗試(阿里二十周年年會上馬老師和逍遙子演講也以實時雙語字幕的形式展示)。

結合 OCR,機器翻譯和合圖技術的圖片翻譯在支付寶掃一掃,微信,搜狗翻譯機上得到應用。隨著賣家直播的興起,直播視頻翻譯的場景和需求也會越來越多。但是受限于直播場景中復雜的領域,專業(yè)的術語,快速的語速和有時嘈雜的背景環(huán)境,直播翻譯對于語音識別和機器翻譯的挑戰(zhàn)也是非常巨大。

7  對話系統(tǒng)

對話系統(tǒng)的語言覆蓋進一步提升,基于多語言遷移能力快速拓展了法語、阿拉伯語、臺灣話的對話系統(tǒng),目前已支持 11 個語種,及馬來語-英語和泰語-英語的混合語言理解,為 Lazada 和 AE 帶來解決率的大幅提升。

對話系統(tǒng)支持了更大規(guī)模的商家和企業(yè),支撐了超過 50+ 的集團經(jīng)濟體客戶,店小蜜拓展了通用包、行業(yè)包、店鋪包的知識定位能力,累計承載百萬級活躍商家,日均千萬級對話輪次。釘釘小蜜基于企業(yè)智能助理承載了 40W 日均活躍企業(yè)。

對話系統(tǒng)的交互形式進一步豐富,直播小蜜實現(xiàn)了從商品相關問題的被動回答,到主動和用戶展開開放式對話的轉變,帶來 cdau 破百萬。

VQA 等多模態(tài)理解能力落地店小蜜及經(jīng)濟體小蜜,提升用戶交互體驗的同時大幅降低商家配置成本。

熱線小蜜的語音交互能力作為典型案例獲 2019MIT Technology Reviewer 十大突破技術提名,并沉淀了面向多領域的外呼場景,并在多個生態(tài)輸出。

8  多輪對話智能服務

多輪交互在智能服務場景(客服機器人)在解決用戶模糊問題,提高用戶使用體驗方面起到的重要的作用。模糊問題指用戶問題描述不完整,如 “怎么開通” ,這句話沒有說明是哪個業(yè)務,這類問題占客服機器人總提問量的 30%。

螞蟻智能服務團隊設計了基于標簽的多輪交互方案,首先離線挖掘標簽,并審核,標簽包括業(yè)務標簽(花唄,備用金...)和訴求標簽(怎么開通,如何還款...),通過向用戶反問標簽列表的形式澄清用戶問題。

已有的問題澄清方法主要通過直接推薦完整澄清問題的方案,但定義什么是好的澄清問題仍然不明確,螞蟻團隊設計了一個基于強化學習推薦標簽列表的方案做問題澄清,整個標簽推薦是一個序列決策的過程,在用戶點擊了標簽之后,我們會把點擊的標簽和原始的用戶問題一起作為澄清后的問題。

整個優(yōu)化的目標是,目標是最大化整個標簽列表對潛在澄清問題的覆蓋率,同時保持不同標簽對潛在澄清問題集合的有效劃分,因此,在強化學習過程中,相應設計了基于信息增益的獎勵(Reward)。

基于強化學習方法的多輪交互上線后,螞蟻客服機器人場景共解決了 33% 的模糊問題,機器人綜合場景轉人工率絕對下降 1.2%。

9  人機對話構建新的交互入口

場景驅動的個性化多輪對話技術,助推人機對話場景擴充,同時語音語義一體化的上下文語義理解技術,持續(xù)提升多輪對話達成率。

天貓精靈在過去一年中,將人機對話能力擴充到二哈電話助手,語音購物,新人使用引導等復雜的交互場景,更是在雙十一期間,創(chuàng)造了語音購物 100 萬訂單的記錄。

天貓精靈在去年的 315 推出了防騷擾電話助手 “二哈”,開啟了全新的人機對話交互場景:作為用戶的替身完成對話�!岸� 的對話場景是在垂直領域內的開放式多輪對話,目的是通過對話來識別來電意圖,并代替用戶來獲取必要信息。在 “二哈” 中我們提出了基于多輪對話上下文的機器閱讀理解技術,用以理解來電意圖和關鍵信息;基于對于來電內容的理解,我們基于 Transformer 構建了對話策略模型,用以選擇策略和生成對話。針對 “二哈” 的對話場景,我們提出使用圖靈測試通過率來衡量對話的質量,亦即當來電在整個對話中都沒有意識到是機器在與其通話時,可以認為 “二哈” 通過了圖靈測試�!岸� 目前的圖靈測試通過率達到了 87%,有效的幫助了用戶應對陌生來電,節(jié)省用戶時間。

通過人機對話的方式去完成復雜的任務,比如點咖啡、購物等,往往需要機器和用戶進行多次對話交互,同時在不同的任務場景下,對話機器人需要掌握各自領域的知識,才能和用戶對答如流。比如在語音購物場景,天貓精靈具備跨行業(yè)的智能導購員能力,吸收各行業(yè)導購員的銷售經(jīng)驗,在用戶進行語音購物的時候,以最終的成交轉化為目標,像商場的銷售員一樣主動進行多輪對話形式的購物引導,深入挖掘用戶購物需求并結合用戶畫像進行精準推薦。且對不同的用戶,天貓精靈可以采用最適合 TA 的對話方式,做到個性化多輪對話。

多輪對話的達成,是建立在一系列的單輪交互都達成的基礎上的,而如果整體任務的達成率是簡單的單輪達成率的乘積關系的話,多輪對話的達成率將很難提升。而打破簡單乘積關系的關鍵在于,每一輪對話理解的時候,需要充分利用上下文信息。

在天貓精靈上,我們進行了上下文語音語義理解的探索。首先在語音解碼的環(huán)節(jié),我們將多輪對話中,上文提到的實體信息構建成 memory,通過 attention 機制讓解碼器網(wǎng)絡感知到這些對話場景信息,顯著提升了多輪對話場景的語音識別精度,然后在語義理解環(huán)節(jié),我們獨創(chuàng)了具備跨輪 attention 能力的端到端上下文繼承模型,實現(xiàn)更高效的對話場景恢復的能力。從而讓線上多輪對話的錯誤率下降了 58.5%,有效保障了復雜多輪對話場景的擴充。

10  智能語音應用持續(xù)發(fā)展

智能音箱,近幾年基本上國內外大玩家都已陸續(xù)進入市場(Amazon Alexa、Google Home/Nest、天貓精靈、小米小愛、百度小度),2019 年進入競爭格局;2019 年智能音箱出貨量仍然在增加,但增速下降。

智能音箱仍然以音樂播放等軟件類服務為主,但進一步應用創(chuàng)新仍依賴智能家居和 IoT 設備的進一步普及。

智能語音電話,2018 年 Google I/O 大會展示了 Duplex 的語音電話助手 demo。2019 年智能語音電話開始更多地應用到真實業(yè)務領域,包括電銷、金融、政務等領域的應用都在增長,以提升用戶服務覆蓋+降低人工成本。

螞蟻智能語音電話 2019 年也在安全(核身)、金融(保險回訪、微貸催收)、支付(客戶激活)等更多金融場景應用和落地。

智能語音類應用,所面向的用戶場景強依賴對話語音交互,推動了 NLP 技術和語音技術的發(fā)展;隨著技術和產(chǎn)品的發(fā)展成熟,以及用戶接受度的提高,2020 年的應用規(guī)模和領域會進一步擴大。




深度解析大規(guī)模參數(shù)語言模型Megatron-BERT

NVIDIA解決方案架構師王閃閃講解了BERT模型原理及其成就,NVIDIA開發(fā)的Megatron-BERT

億級視頻內容如何實時更新

基于內容圖譜結構化特征與索引更新平臺,在結構化方面打破傳統(tǒng)的數(shù)倉建模方式,以知識化、業(yè)務化、服務化為視角進行數(shù)據(jù)平臺化建設,來沉淀內容、行為、關系圖譜,目前在優(yōu)酷搜索、票票、大麥等場景開始進行應用

基于真實環(huán)境數(shù)據(jù)集的機器人操作仿真基準測試

通過使用仿真和量化指標,使基準測試能夠通用于許多操作領域,但又足夠具體,能夠提供系統(tǒng)的有關信息

看高清視頻,如何做到不卡頓

優(yōu)酷智能檔突破“傳統(tǒng)自適應碼率算法”的局限,解決視頻觀看體驗中高清和流暢的矛盾

京東姚霆:推理能力,正是多模態(tài)技術未來亟需突破的瓶頸

姚霆指出,當前的多模態(tài)技術還是屬于狹隘的單任務學習,整個訓練和測試的過程都是在封閉和靜態(tài)的環(huán)境下進行,這就和真實世界中開放動態(tài)的應用場景存在一定的差異性

利用時序信息提升遮擋行人檢測準確度

Tube Feature Aggregation Network(TFAN)新方法,即利用時序信息來輔助當前幀的遮擋行人檢測,目前該方法已在 Caltech 和 NightOwls 兩個數(shù)據(jù)集取得了業(yè)界領先的準確率

基于網(wǎng)格圖特征的琵琶指法自動識別

根據(jù)各種指法的具體特點,對時頻網(wǎng)格圖、時域網(wǎng)格圖、頻域網(wǎng)格圖劃分出若干個不同的計算區(qū)域,并以每個計算區(qū)域的均值與標準差作為指法自動識別的特征使用,用于基于機器學習方法的指法自動識別

知識圖譜在個性化推薦領域的研究進展及應用

新加坡國立大學NExT中心的王翔博士分析了知識圖譜在個性化推薦領域的應用背景,并詳細介紹了課題組在個性化推薦中的相關研究技術和進展,包括基于路徑、基于表征學習、基于圖神經(jīng)網(wǎng)絡等知識圖譜在推薦系統(tǒng)中的融合技術

重構ncnn,騰訊優(yōu)圖開源新一代移動端推理框架TNN

新一代移動端深度學習推理框架TNN,通過底層技術優(yōu)化實現(xiàn)在多個不同平臺的輕量部署落地,性能優(yōu)異、簡單易用。騰訊方面稱,基于TNN,開發(fā)者能夠輕松將深度學習算法移植到手機端高效的執(zhí)行,開發(fā)出人工智能 App,真正將 AI 帶到指尖

達摩院金榕教授113頁PPT詳解達摩院在NLP、語音和CV上的進展與應用實踐

達摩院金榕教授介紹了語音、自然語言處理、計算機視覺三大核心AI技術的關鍵進展,并就AI技術在在實際應用中的關鍵挑戰(zhàn),以及達摩院應對挑戰(zhàn)的創(chuàng)新實踐進行了解讀

OpenAI發(fā)布了有史以來最強的NLP預訓練模型GPT-3

2020年5月底OpenAI發(fā)布了有史以來最強的NLP預訓練模型GPT-3,最大的GPT-3模型參數(shù)達到了1750億個參數(shù)

多尺度圖卷積神經(jīng)網(wǎng)絡:有效統(tǒng)一三維形狀離散化特征表示

解決了傳統(tǒng)圖卷積神經(jīng)網(wǎng)絡中圖節(jié)點學習到的特征對圖分辨率和連接關系敏感的問題,可以實現(xiàn)在低分辨率的三維形狀上學習特征,在高低分辨率形狀之上進行測試,并且保持不同分辨率特征的一致性
 
資料獲取
新聞資訊
== 資訊 ==
» 人形機器人未來3-5年能夠實現(xiàn)產(chǎn)業(yè)化的方
» 導診服務機器人上崗門診大廳 助力醫(yī)院智慧
» 山東省青島市政府辦公廳發(fā)布《數(shù)字青島20
» 關于印發(fā)《青海省支持大數(shù)據(jù)產(chǎn)業(yè)發(fā)展政策措
» 全屋無主燈智能化規(guī)范
» 微波雷達傳感技術室內照明應用規(guī)范
» 人工智能研發(fā)運營體系(ML0ps)實踐指
» 四驅四轉移動機器人運動模型及應用分析
» 國內細分賽道企業(yè)在 AIGC 各應用場景
» 國內科技大廠布局生成式 AI,未來有望借
» AIGC領域相關初創(chuàng)公司及業(yè)務場景梳理
» ChatGPT 以 GPT+RLHF 模
» AIGC提升文字 圖片滲透率,視頻 直播
» AI商業(yè)化空間前景廣闊應用場景豐富
» AI 內容創(chuàng)作成本大幅降低且耗時更短 優(yōu)
 
== 機器人推薦 ==
 
迎賓講解服務機器人

服務機器人(迎賓、講解、導診...)

智能消毒機器人

智能消毒機器人

機器人底盤

機器人底盤

 

商用機器人  Disinfection Robot   展廳機器人  智能垃圾站  輪式機器人底盤  迎賓機器人  移動機器人底盤  講解機器人  紫外線消毒機器人  大屏機器人  霧化消毒機器人  服務機器人底盤  智能送餐機器人  霧化消毒機  機器人OEM代工廠  消毒機器人排名  智能配送機器人  圖書館機器人  導引機器人  移動消毒機器人  導診機器人  迎賓接待機器人  前臺機器人  導覽機器人  酒店送物機器人  云跡科技潤機器人  云跡酒店機器人  智能導診機器人 
版權所有 © 創(chuàng)澤智能機器人集團股份有限公司     中國運營中心:北京·清華科技園九號樓5層     中國生產(chǎn)中心:山東日照太原路71號
銷售1:4006-935-088    銷售2:4006-937-088   客服電話: 4008-128-728