未來人類有必要擔心人工智能嗎


  未來人類有必要擔心人工智能嗎

 未來人類有必要擔心人工智能嗎

  自“人工智能”一詞在1956年達特茅斯學院的會議上被提出后,這個詞隨著人工智能的發(fā)展越來越多地出現(xiàn)在人們的視線中。而隨著時代的不斷的推進,人類對人工智能的異軍突起顯得越來越害怕,那么我們到底在害怕什么?難道我們已經(jīng)忘了研究人工智能的初衷了么?

 未來人類有必要擔心人工智能嗎

  目前,對于人工智能,人們基本持有以下三種觀點。

 未來人類有必要擔心人工智能嗎

  首先,對人工智能的研究抱有樂觀態(tài)度的,一般是科技工作者。他們一般都集中于谷歌、微軟、阿里巴巴、華為這樣的公司,這些企業(yè)基本都處于人工智能研究的前沿領域。

  第二種觀點就是反對,強烈地反對,代表人物就是著名的物理學家霍金。霍金曾經(jīng)在2021年接受BBC的采訪,當被問到對于AI的態(tài)度時,他表明:“人工智能的全面發(fā)展將宣告人類的滅亡。”

  他的擔心并不是杞人憂天,現(xiàn)在已經(jīng)有更多的科學家在警示人類,發(fā)展人工智能將會把人類送入墳墓。他們所依據(jù)的理論是:從目前看來,人工智能對人類并沒有什么威脅,因為它們還處于弱人工智能階段;但是等到人工智能通過深度學習掌握了向強人工智能進化的途徑,那就會在很短的時間內(nèi)超越人類。

  第三種態(tài)度,保持中立,也就是觀望。持這種態(tài)度的最多,大約有50億人——你沒有看錯,就是這個數(shù)目。確切地說,就是我們絕大多數(shù)人,都在觀望,都在期待科學家和專家們幫助我們解決這個難題,或者等待國家領導人來解決問題。但是在這里,我想告訴大家,這件事不僅和我們都有關系,而且有很大的關系,因為全人類是一個命運共同體。

  向左轉(zhuǎn)|向右轉(zhuǎn)

  1957年,美國科學家司馬賀曾預言10年內(nèi)計算機下棋將擊敗人類。到1997年時,這個預言實現(xiàn)了,國際象棋冠軍加里·卡斯帕羅夫輸給了IBM的計算機“深藍”,標志著國際象棋領域被機器攻陷,盡管比預計時間晚了30年。

  到2016年3月9日,這個預言又一次上演。擁有1200多個處理器的谷歌人工智能系統(tǒng)AlphaGo,在深奧的圍棋棋盤上把世界圍棋冠軍、韓國棋手李世石逼到絕路,曾經(jīng)獨孤求敗的九段高手不得不投子認輸,總比分以1∶4落敗。戰(zhàn)勝李世石之后,AlphaGo又在一系列在線匿名比賽中擊敗了數(shù)十位知名棋手。

  那么,我們到底在害怕人工智能什么呢?人工智能強大了,難道不是可以更多地幫助我們?nèi)祟悊?

  其實,我們在害怕自己,怕自己擁有了它們之后,一日三餐,甚至連起床、上床都是它們幫我們完成,我們不用多消耗任何一點能量。可這樣下去,我們最后發(fā)現(xiàn),在它們眼里人類一無是處,我們將沒有任何夢想,也沒有任何動力。那時,才真正是它們支配著我們的生活,不是嗎?

  我們真的有必要害怕嗎

  現(xiàn)在我們每個人都知道這個名詞——人工智能,而且知道自己害怕它們,在之前的漫長歷史中,沒有過這樣的恐慌。但是我們?nèi)祟愓娴男枰ε聠?人類,是世界上最聰明、擁有最強大腦的物種,需要害怕自己造出來的一堆“機器”嗎?與其害怕,還不如反省。在對待人工智能的態(tài)度上,自負和欲望是帶領人類真正走進墳墓的助推劑,因此,真正讓人類害怕的應該是我們的內(nèi)心。

  不是因為我們太過強大,而是因為太過自負,這個世界上有相當多的一部分人到現(xiàn)在還在做著人類可以掌控一切的美夢,以為人工智能只能成為人類的工具。而在人類做著這樣的美夢時,人工智能正在一點一滴地追趕著人類的科技文明。但是,目前人工智能還沒超越那個“度”,它的發(fā)展存在三個階段。

  第一個階段,人工智能應該需要100年的時間來追趕這個“度”。

  第二個階段,是它們跨越這個“度”。所需時間或長或短,有可能是一個小時或者一秒鐘。

  第三個階段,當它們跨越過這個“度”后,將會花很短的時間甩開人類數(shù)千年的科技文明。在這之后,人類不要再妄想理解它們,因為它們已經(jīng)超越人類文明太多了。

  人工智能專業(yè)前景如何?

  極其好。如果說計算機專業(yè)是上個時代的老大,那么人工智能專業(yè)就是下個時代的龍頭。因為:

  1.

網(wǎng)上報名
  • 姓名:
  • 專業(yè):
  • 層次: ??分數(shù):
  • 電話:
  • QQ/微信:
  • 地址:

文中圖片素材來源網(wǎng)絡,如有侵權(quán)請聯(lián)系644062549@qq.com刪除

轉(zhuǎn)載注明出處:http://www.tengyi66.com