xxxxx日韩,夜夜躁很很躁日日躁麻豆,亚洲精品无人一区二区,www婷婷av久久久影片,色四月五月开心婷婷网

支持單位: 全國警用裝備標(biāo)準(zhǔn)化技術(shù)委員會 , 公安部安全與警用電子產(chǎn)品質(zhì)量檢測中心 , 公安部特種警用裝備質(zhì)量監(jiān)督檢驗(yàn)中心 , 國家安全防范報(bào)警系統(tǒng)產(chǎn)品質(zhì)量監(jiān)督檢驗(yàn)中心
jiangbei
歷屆評選

人工智能濫用威脅難以忽視!

2023-05-06 17:47:41  來源 : 財(cái)聯(lián)社
關(guān)鍵詞: 人工智能 犯罪


????????警用裝備網(wǎng)訊:?近幾個(gè)月來,隨著OpenAI的ChatGPT等人工智能模型迅速崛起,一些技術(shù)專家和研究人員開始思考人工智能(AI)是否很快就具備超越人類的能力,也有越來越多的行業(yè)人士擔(dān)心人工智能會被濫用于犯罪或其他惡意用途上。



  微軟首席經(jīng)濟(jì)學(xué)家邁克爾·施瓦茨(Michael Schwarz)周三(5月3日)在世界經(jīng)濟(jì)論壇(WEF)的一個(gè)小組討論會上談到人工智能時(shí)表示,“我們確實(shí)必須非常擔(dān)心這項(xiàng)技術(shù)的安全性——就像其他任何技術(shù)一樣。”



  即使對從事人工智能研究的公司來說,人工智能的危險(xiǎn)性也很難忽視,例如正深度參與人工智能研發(fā)和實(shí)施的微軟。



  施瓦茨表示,他自己非??隙ㄈ斯ぶ悄軙粣喝死?,而且它確實(shí)會造成真正的損害。



  他認(rèn)為,這項(xiàng)技術(shù)確實(shí)不安全,不過更關(guān)鍵的是要把保障措施落實(shí)到位。



  微軟公司發(fā)言人表示,“我們認(rèn)為人工智能的進(jìn)步將解決比現(xiàn)在更多的挑戰(zhàn),但我們也始終認(rèn)為,當(dāng)你創(chuàng)造出可以改變世界的技術(shù)時(shí),你必須確保負(fù)責(zé)任地使用這項(xiàng)技術(shù)。”



  熱議



  施瓦茨對人工智能的警告在某種程度上與谷歌前副總裁兼工程研究員Geoffrey Hinton最近的言論遙相呼應(yīng)。



  Hinton在谷歌任職期間,他曾幫助開發(fā)了一些關(guān)鍵技術(shù),為當(dāng)今廣泛使用的人工智能工具提供了支持,被人尊稱為“人工智能教父”。



  在本周一(5月1日)的采訪中,Hinton表示,生成式人工智能語言模型可能會導(dǎo)致虛假信息、照片和視頻等在互聯(lián)網(wǎng)上大量傳播,而公眾極易被其迷惑,很難分辨真假。



  他指出,“很難想象如何阻止壞人利用它做壞事”,他還警告稱,要阻止人工智能的負(fù)面用途是很困難的。



  OpenAI安全團(tuán)隊(duì)的前主管Paul Christiano近日也發(fā)出警告,人類水平或超人類水平的人工智能來控制人類甚至消滅人類的可能性,并非為零。



  在一檔訪談節(jié)目中,Christiano甚至提出,“我認(rèn)為人工智能可能有10%到20%的機(jī)會接管世界。”



  Christiano曾多次強(qiáng)調(diào),希望研究更多關(guān)于人工智能安全性的理論問題,重點(diǎn)是確保人工智能系統(tǒng)與人類利益和道德原則保持一致,并補(bǔ)充稱,OpenAI在這類研究中“不是最好的”。



  對于人工智能系統(tǒng)中充斥著的錯(cuò)誤信息,Christiano也警告道,不建議開發(fā)得過快。




  新聞稿件歡迎直接聯(lián)系:QQ 34004818 微信公眾號:cpsjyzb

我要評論

表情 驗(yàn)證碼 評論

0 條評論

  • 還沒有人評論過,趕快搶沙發(fā)吧!