• <xmp id="wciyy">
  • <rt id="wciyy"><u id="wciyy"></u></rt>
  • 新聞動態???News
    聯系我們???Contact
    你的位置:首頁 > 新聞動態 > 行業新聞

    人工智能發展的不可回避的十大痛點

    2018-6-6 18:54:23??????點擊:

    導讀: 從1956年的達特茅斯會議開始,標志人工智能技術正式誕生。人工智能經過三起三落,如今又一次的進入到了公眾的視野。2016和2017年兩年人工智能炒得很火,尤其是AlphaGo相繼擊敗了李世石和柯潔。在圍棋界,AlphaGo可以說是橫行無忌,無人能敵。

    從1956年的達特茅斯會議開始,標志人工智能技術正式誕生。人工智能經過三起三落,如今又一次的進入到了公眾的視野。2016和2017年兩年人工智能炒得很火,尤其是AlphaGo相繼擊敗了李世石和柯潔。在圍棋界,AlphaGo可以說是橫行無忌,無人能敵。

    從AlphaGo開始,人工智能走入大眾的視野。媒體競相報道,將人工智能的熱度炒到非常高的高度。如今人工智能雖然還是很熱,但是熱度已經被區塊鏈奪了走。但是無論是世界上有能力的各個國家,還是國際上的有實力的科技巨頭,都在布局人工智能領域,例如谷歌收購了與人工智能相關的十幾家公司,其中就包括被谷歌收購了的研發了AlphaGo的DeepMind公司。

    無疑,人工智能未來必然是我們發展的方向,那么在人工智能發展的過程中有哪些痛點需要解決呢?Innov100平臺分析認為有以下10個痛點。

    1.人才稀缺

    人工智能在人才方面極度稀缺。據領英數據顯示,全球在人工領域的人才不足25萬人,其中在美國的人才最多。其余主要分布在歐洲,印度,中國,加拿大等。其中有10年以上工作經驗的不足30%。所以那個國家,企業想在人工智能領域做出成績,首先就是人才的爭奪。如最近中興被美國制裁,引起對“國芯“的發問,首先出現的問題就是人才稀缺,人才的優秀程度,人才的聚集程度,決定了一個企業走向欣榮還是衰敗。

    2.道德價值觀判定

    當人工智能遇到傷害事件發生的時候應該如何抉擇。

    例如無人駕駛如今也在如火如荼的發展。人工智能很有可能將首先應用到無人駕駛領域。但是在無人駕駛領域有時候會出現這樣的情況,當無人駕駛汽車行走在道路上,正前方忽然沖出來一個人,左右兩邊也正好有人,無論車輛如何操作都無法避免的會造成傷害,那么這個時候人工智能該如何抉擇。

    在計算機的世界,是一個概率的世界,如果正前方是老人,左右是小孩的話,是不是會分析小孩比老人更有價值,然后完成所有的最優解。但是這很明顯是違背道德常識的。

    3.莫拉維克悖論

    人工智能,簡單理解就是像人類一樣的智能。那么人工智能所遵循的邏輯或者方法應該是類人類的才對??墒菍嶋H上人工智能與人類智能完全不同。

    莫拉維克悖論(Moravec'sparadox) 是由人工智能和機器人學者所發現的一個和常識相佐的現象。和傳統假設不同,計算機完成人類所獨有的高階智慧能力只需要非常少的計算能力,例如推理。但是完成無意識的技能和直覺卻需要極大的運算能力。這個理念是由漢斯·莫拉維克、布魯克斯(Rodney Brooks)、馬文·閔斯基等人于1980年代所闡釋。

    4.算力限制

    目前進行人工智能算力平臺的搭建,需要大量的CPU和GPU。而谷歌公司的AlphaGo使用的TPU,類似與GPU的一種算法芯片,能耗功效比非常高。訓練AlphaGo需要的算力相當于我們市面上常見的消費級1080TI 大約12000塊,至少千萬級別的開支。

    對于谷歌,Facebook,騰訊等這樣的巨頭公司,這樣的開銷也許不算什么。但是對于一些規模較小的公司,這將是非常大的一個問題。畢竟人工智能想要步入成熟期,必須解決算力成本問題。

    5.隱私安全問題

    隱私安全問題在很多行業都是非常重要的話題,為什么說人工智能行業的隱私安全會成為制約他的痛點。

    因為如果要利用人工智能來提高人們的生活效率和品質,那么必須盡量多的獲取個人信息,因為AI模型需要訓練,所以很可能需要將個人信息上傳到云端。另外,目前沒有辦法依靠本地的算力支撐人工智能。隱私與便利常常矛盾,但是人工智能如果想有好的發展,必須兩者兼顧。

    最近,Facebook因為泄漏了多達8000萬的用戶信息,扎克伯格被美國政府要求出席美國國會聽證會,并被詢問的總時長達10小時。并在聽證會中多次提到用人工智能來解決部分業務需求。

    6.需要大量的數據標記

    目前現有的AI模型都需要大量的數據標記,因為模型大多數是監督學習模型。大量的數據標記,不僅僅會要求更多的人力資源,同時人的參與難免會為數據帶來一定程度的誤差。

    目前可以很好解決這一問題是利用強化學習,進行無監督學習。谷歌公司的AlphaGo就是利用無監督學習進行訓練的。

    7.數據稀缺

    AI模型不僅僅目前不僅需要進行人工對信息標記,同時也需要巨量數據才可以達到人類正確識別的程度。以AlphaGo為例,在擊敗李世石的那個版本AlphaGo進行了3000萬次圖譜學習。擊敗柯潔的那個版本,進行了400多萬次,自我對弈。

    除了對數據量的需求極大,對數據的維度也要求盡可能的全面??傊褪?,能有最好都給我,越全面越好。但是實際情況就是,結構性的全面的數據在現實生活中很難獲得,而且也很難獲得比較準確的數據。

    8.黑匣子問題

    在人工智能設計之初,賦予其相應的發展方向是,根據人為制定的規則和人為制造的邏輯執行相應的任務。但是實際發現這樣的并沒有辦法使得人工智能有非常讓人滿意的實際應用。

    一直到如今非常熱門深度學習,通過一定程度人為干預,AI模型經過數據訓練和結果干預,會自己生成一個擬合算法,生成人類預期的結果。但是由于是AI模型自動生成,會存在不可解釋的問題。如果有一天AI 模型得出或者做出出乎我們意料之外的事情,我們卻沒有能力來解釋這個時間背后的原因。

    9.模型可移植性差

    AI模型的可用性是隨著訓練的數據量增大而增高。但是所需要的數據量是個非常大的量級,但即使是重復度很高的模型,也沒有辦法從上一個模型中獲得其一些經驗,只能自己從頭開始訓練。

    這樣會帶來一些問題,比如會增加數據獲取成本,時間成本,能耗成本等,這將給發展中的企業帶來極大的困擾。模型的可移植性差,勢必影響技術的發展傳播速度,也會增加傳播成本,這對于一個需要快速發展的新興科技,確實是一個非常重要的問題。

    10.可信任性

    這個一個復合的問題。AI模型在處理可評測結果的應用中可能表現非常出色,比如在圖像識別領域,我們可以用一個確定的概率來評價AI模型的正確識別度,也可以說是可信任度是明確可見的。

    但是,如果在未來的應用場景中,需要AI模型提供一定的商業決策,或者給出一些建議。我們并沒有很好的參照體系來評價AI模型的決策和建議是否是準確的,是否是最優解。這將影響決策的方向和準確,也會為很多商業人士帶來不必要的困擾。

    目前,生活中已經有很多智能模型輔助決策了,但是這樣的模型都是可以解釋的,只對決策起到一定的參考作用。但是AI模型,我們是無法解釋其得出結論的原因的,那么其可信任度將是一個無法逃避的問題。

    人工智能從概念誕生之起,到如今已經有60年的歷史。如今其已經在一些領域開始發揮其重要的作用了,雖然有很多痛點有待解決,但是哪一個新技術從開始到成熟沒有經歷過各種問題。而且,人工智能未來的潛力十分巨大,相信未來可以有更好的發展和突破。


    轉自:ofweek

    鏈接:http://ai.ofweek.com/news/2018-06/ART-201721-8470-30238309.html

    日韩 欧美 一区,日本天堂网在线观看,亚洲岛国AV无码无遮挡在线观看,日本熟女中文字幕