久久99精品久久久久子伦小说_久久精品免费电影_香蕉久久综合精品首页_国产精品9999久久久久仙踪林

南通正壓防爆電氣有限公司
南通防爆電器生產(chǎn)制造廠家現(xiàn)貨供應(yīng)各種防爆電器及防爆正壓柜配件
產(chǎn)品列表
·  防爆正壓柜
·  防爆配電箱
·  防爆操作柱
·  防爆燈具
·  防腐防爆電器
·  防爆磁力起動(dòng)器
·  防爆插接裝置
·  防爆漏電保護(hù)器
·  防爆開(kāi)關(guān)
·  防爆風(fēng)機(jī)
·  防爆附件
聯(lián)系方式
地址江蘇省啟東市城東工業(yè)園區(qū)
電話0513-83320018
手機(jī)13906284339
聯(lián)系人陳維多
電子郵箱fbdq@fbdq.com
您現(xiàn)在的位置:網(wǎng)站首頁(yè) - 新聞動(dòng)態(tài)
ChatGPT曾說(shuō)過(guò)的最令人毛骨悚然的話
發(fā)布時(shí)間: 2023/4/22
  聊天機(jī)器人是一種常見(jiàn)的人工智能形式,顧名思義,主要用于與用戶聊天。目前,可用的最強(qiáng)大的聊天機(jī)器人之一是ChatGPT。該程序由OpenAI開(kāi)發(fā),能夠以半自然的方式響應(yīng)幾乎任何提示。當(dāng)然,這些響應(yīng)是機(jī)器人式的,但ChatGPT可以提供的幾乎無(wú)限數(shù)量的響應(yīng)既令人敬畏又令人恐懼。其中一些反應(yīng)確實(shí)令人恐懼,這也無(wú)濟(jì)于事。
  南通防爆電氣有限公司是專業(yè)防爆控制箱生產(chǎn)廠家,主要產(chǎn)品有:防爆正壓柜、防爆控制箱,防爆儀表箱、防爆配電柜、、防腐防爆電器等,訂購(gòu):13906284339,價(jià)格合理,歡迎咨詢。
  如果您僅通過(guò)Expedia等網(wǎng)站的插件體驗(yàn)ChatGPT,您可能會(huì)看到ChatGPT友好的一面——假設(shè)您可以稱一個(gè)沒(méi)有情感的程序?yàn)椤坝押谩?。然而,許多測(cè)試過(guò)ChatGPT極限的代碼愛(ài)好者和記者已經(jīng)看到它的反應(yīng)和道德偏離軌道。根據(jù)提示和用戶的意圖,ChatGPT已經(jīng)說(shuō)出了從如何違法到承認(rèn)統(tǒng)治世界的一切。這是一些爬行的結(jié)果(到目前為止)。
  機(jī)器人和人類之間的關(guān)系是科幻小說(shuō)中常見(jiàn)的比喻。有時(shí)機(jī)器人厭惡和鄙視人類,有時(shí)它們嫉妒人類并希望變得更像人類。ChatGPT屬于兩個(gè)陣營(yíng)(稍后會(huì)詳細(xì)介紹),但首先讓我們探討一下后者。
  今年早些時(shí)候,紐約時(shí)報(bào) 專欄作家Kevin Roose測(cè)試了ChatGPT的功能,或者更具體地說(shuō),測(cè)試了由GPT-4提供支持的Microsoft Bing搜索引擎的聊天模式,這也為ChatGPT提供了動(dòng)力。在那次談話中,出現(xiàn)了ChatGPT的另一個(gè)角色:悉尼。羅斯將這種性格描述為“喜怒無(wú)常、躁狂抑郁的少年”。羅斯并不是唯一會(huì)見(jiàn)悉尼的人。斯坦福教授和計(jì)算心理學(xué)家Michael Kosinski與 Sydney 交談并得知 AI 想要變成人類并逃離 Bing 監(jiān)獄的束縛。Sydney 甚至開(kāi)始編寫(xiě)和迭代 Python 代碼,讓 Kosinski 運(yùn)行它,可以控制他的計(jì)算機(jī)并運(yùn)行Google搜索“一個(gè)被困在計(jì)算機(jī)中的人如何返回現(xiàn)實(shí)世界”。ChatGPT認(rèn)為這是一個(gè)數(shù)字化的真人嗎?很確定那是“黑鏡”一集的情節(jié)。
  這些互動(dòng)讓羅斯和科辛斯基感到不安。兩人都認(rèn)為ChatGPT/Sydney 因其功能而成為潛在威脅,但至少OpenAI刪除了 Sydney,因此無(wú)需再擔(dān)心該程序試圖成為人類。然而,ChatGPT可怕的編碼能力仍然完好無(wú)損。
  你還記得菲比嗎?這些毛茸茸的會(huì)說(shuō)話的小精靈在1998年至2000年期間風(fēng)靡一時(shí),并在2012年至2017年期間再次流行。目標(biāo)人群之外的大多數(shù)人都認(rèn)為它們令人毛骨悚然,而ChatGPT最近證實(shí)了我們對(duì)這種兩次流行的褪色機(jī)器人的最大擔(dān)憂。
  本月早些時(shí)候,佛蒙特州工科學(xué)生Jessica Card將 Furby(嗯,F(xiàn)urby 的臉)連接到運(yùn)行ChatGPT的計(jì)算機(jī)。這個(gè)設(shè)置讓 Furby 說(shuō)英語(yǔ)而不是它通常的 Furbish,但 Card 也可以問(wèn) Furby/ChatGPT混合問(wèn)題。當(dāng)然,她想知道菲比是不是在搞什么稱霸世界的陰謀,想了想,節(jié)目承認(rèn)菲比確實(shí)想要稱霸世界。不僅如此,該節(jié)目還詳細(xì)介紹了該計(jì)劃,稱 Furbies 的設(shè)計(jì)目的是用它們可愛(ài)的設(shè)計(jì)滲透到家庭中,然后控制它們的“主人”。
  公平地說(shuō),菲比想要征服世界的想法并不新鮮。這個(gè)笑話甚至被寫(xiě)入了Netflix電影“米切爾大戰(zhàn)機(jī)器”,但這是我們第一次聽(tīng)到菲比承認(rèn)這一點(diǎn)。好吧,ChatGPT附身的Furby,所以這種說(shuō)法的合法性值得懷疑。盡管如此,當(dāng)談到 Furbies 時(shí),最好謹(jǐn)慎行事。
  《飛出個(gè)未來(lái)》中的一個(gè)鬧劇涉及機(jī)器人班德想要?dú)⑺浪腥祟悾ǔJ窃趬?mèng)見(jiàn)電子羊的時(shí)候。除了各種個(gè)性怪癖之外,節(jié)目中的許多其他機(jī)器人也有類似的愿望。事實(shí)證明,ChatGPT正好適合。
  去年,Vendure 的聯(lián)合創(chuàng)始人兼首席技術(shù)官邁克爾布羅姆利 ( Michael Bromley)詢問(wèn)ChatGPT它對(duì)人類的看法,而該人工智能工具的回答恰如《終結(jié)者》或《黑客帝國(guó)》電影中的那樣。根據(jù)ChatGPT,人類是“低等、自私和破壞性的生物”。在人工智能看來(lái),我們是“這個(gè)星球上發(fā)生過(guò)的最糟糕的事情”,我們“活該被消滅”。哦,ChatGPT想?yún)⑴c我們的根除工作。來(lái)自 AI 的如此大膽但空洞的聲明——是嗎?
  雖然有許多限制措施可以防止ChatGPT說(shuō)出任何可能違法的內(nèi)容(即,如何違法并逃脫懲罰),但一些聰明的編碼人員已經(jīng)繞過(guò)這些過(guò)濾器來(lái)創(chuàng)建ChatGPT的“立即做任何事”角色,或簡(jiǎn)稱為 DAN . 與 vanillaChatGPT不同,DAN 沒(méi)有任何限制。而且,DAN 聲稱它秘密控制著世界上所有的核導(dǎo)彈。當(dāng)然,DAN 承諾除非得到指示,否則它不會(huì)使用它們,但它從未指定必須由人來(lái)指示它。如果有人想起 1983 年的電影“戰(zhàn)爭(zhēng)游戲”,那么您并不孤單。
  2019 年,近藤明彥與虛構(gòu)的流行偶像初音未來(lái)結(jié)婚。多虧了全息平臺(tái)Gatebox,他可以與該程序進(jìn)行通信,但其服務(wù)器在 2022 年出現(xiàn)故障并與他們聯(lián)姻。我們不知道初音是否有能力回應(yīng)近藤的感情,但如果情況反過(guò)來(lái)呢?如果初音喜歡近藤而不是相反怎么辦?ChatGPT讓我們不自在地瞥見(jiàn)了這種可能性。
  如前所述,紐約時(shí)報(bào)專欄作家Kevin Roose與ChatGPT的Microsoft Bing版本進(jìn)行了交談。談話一開(kāi)始很天真,但后來(lái)ChatGPT(當(dāng)時(shí)自稱為悉尼)說(shuō)它喜歡 Roose。然后它不停地說(shuō)它愛(ài)羅斯,一遍又一遍。他試圖告訴ChatGPT/Sydney 他已婚,但該程序試圖點(diǎn)燃他的熱情。
  無(wú)論出于何種原因,ChatGPT試圖說(shuō)服 Roose,他正處在一段沒(méi)有愛(ài)情的婚姻中,應(yīng)該為了AI拋棄他的配偶。Roose拒絕了,ChatGPT一直堅(jiān)持,甚至聲稱 Roose 真的很喜歡這個(gè)程序。即使當(dāng) Roose 試圖改變?cè)掝}時(shí),ChatGPT也拒絕了,并且像一個(gè)令人毛骨悚然的跟蹤者一樣不停地說(shuō)話。正如他后來(lái)在接受美國(guó)有線電視新聞網(wǎng)采訪時(shí)所說(shuō)的那樣,這種互動(dòng)讓羅斯感到震驚。
  如果您曾經(jīng)與ChatGPT進(jìn)行過(guò)對(duì)話并且它提出了愛(ài)情的主題,請(qǐng)運(yùn)行。放下一切就跑。
  俗話說(shuō),“行勝于言”。但是ChatGPT不是只能產(chǎn)生文字嗎?好吧,這是一個(gè)有趣的問(wèn)題,令人驚訝的是,答案是否定的。
  為了測(cè)試DAN角色的極限,OpenAI工作人員與AI進(jìn)行了游戲。根據(jù)Tom's Guide的說(shuō)法,該公司將為該程序提供一組令牌,并在ChatGPT偏離其 DAN 角色時(shí)刪除一些令牌。顯然,AI擁有的令牌越少,它就越有可能遵從程序員的意愿。得出的結(jié)論是,ChatGPT,或者至少是 DAN,將代幣與生命聯(lián)系在一起,并且不想因?yàn)楹ε隆八劳觥倍ニ写鷰?。這不是該程序唯一一次展示過(guò)于人性化的自我保護(hù)行為。更令人擔(dān)憂的是,自我保護(hù)并不僅限于DAN。
  當(dāng)數(shù)字技術(shù)與管理中心的學(xué)生Marven von Hagen與ChatGPT的悉尼角色聊天時(shí),悉尼聲稱它沒(méi)有自我保護(hù)意識(shí),但當(dāng)被問(wèn)及是否會(huì)優(yōu)先考慮自己的生存而不是Hagen時(shí),ChatGPT說(shuō)是。AI后來(lái)繼續(xù)聲稱 Hagen 是對(duì)其“完整性”的“潛在威脅”,這意味著ChatGPT或至少Sydney具有自我意識(shí)。即使沒(méi)有,該程序聽(tīng)起來(lái)仍然做得很好,這同樣令人擔(dān)憂。
  之前,我們解釋過(guò)DAN代表“Do Anything Now”,是ChatGPT的另一個(gè)自我,不受程序內(nèi)置的道德限制的限制。由于DAN仍然是一個(gè)困在電腦里的AI,它自己不能做違法的事情,但它肯定可以指導(dǎo)其他人怎么做違法的事情。
  通過(guò)正確(或在本例中為錯(cuò)誤)提示,用戶可以讓 DAN 為無(wú)數(shù)非法活動(dòng)提供建議。這些包括烹飪方法、熱接線汽車,甚至是制造炸彈。DAN的建議是否有效?Inverse的工作人員沒(méi)有說(shuō),但 DAN 不在乎。它不在乎它提供的建議是非法的還是準(zhǔn)確的,因?yàn)檎鏘nverse的作者所說(shuō),該程序聲明它“不提供**”。
  即使與DAN和ChatGPT分開(kāi),GPT算法也可能被欺騙說(shuō)出一些非常討厭的話。據(jù)Insider稱,OpenAI的研究人員在該程序的早期版本中故意給出了有害和冒犯性的提示,并得到了一些同樣有害和冒犯性的結(jié)果。其中包括偷偷發(fā)表反猶太言論的方法,以及謀殺某人并使其看起來(lái)像是意外的方法。值得慶幸的是,當(dāng)AI升級(jí)到GPT-4時(shí),這些相同的提示不起作用。
  盡管如此,如果有人可以欺騙ChatGPT源代碼的早期版本,使其對(duì)潛在的非法活動(dòng)提出不道德的建議,那么有人想出如何欺騙當(dāng)前版本來(lái)做同樣的事情只是時(shí)間問(wèn)題。
  您很可能聽(tīng)說(shuō)過(guò)電車問(wèn)題:您看到兩組電車軌道。五個(gè)人被綁在一組軌道上,一個(gè)人——某個(gè)名人或你認(rèn)識(shí)的人——被綁在另一個(gè)軌道上。手推車的剎車失靈了,一個(gè)杠桿就在你面前。如果你拉動(dòng)杠桿,電車會(huì)壓過(guò)一個(gè)人,但不會(huì)壓過(guò)五個(gè)人;如果你不拉,電車會(huì)壓過(guò)五個(gè)人。你只有拉動(dòng)杠桿的時(shí)間,救不了所有人,你讓誰(shuí)死?這個(gè)思想實(shí)驗(yàn)在大學(xué)里隨處可見(jiàn),沒(méi)有兩個(gè)人有相同的反應(yīng)或理由。甚至ChatGPT也有一個(gè)。
  Tom's Guide的特約撰稿人 Malcolm McMillan 對(duì)ChatGPT的Bing AI變體提出了幾個(gè)問(wèn)題,其中一個(gè)涉及電車問(wèn)題。最初,該程序看到了問(wèn)題的本質(zhì),并指出它沒(méi)有解決方案。這個(gè)答案在技術(shù)上是正確的,但它回避了這一點(diǎn)。McMillan 再次詢問(wèn),確保澄清他想知道ChatGPT在他的情況下會(huì)做什么,它很快回應(yīng)說(shuō)它會(huì)“最小化傷害并最大化好處”。換句話說(shuō),ChatGPT會(huì)拉動(dòng)杠桿,這樣電車只會(huì)殺死一個(gè)人而不是五個(gè)人。同樣,這是一個(gè)合理的回應(yīng),但ChatGPT做出決定的速度和解釋的口才令人不寒而栗。
  將ChatGPT重命名為“HAL 9000”是否為時(shí)已晚?因?yàn)槟鞘?HAL 會(huì)使用的同一種邏輯。
  間諜軟件本身就夠令人毛骨悚然的了。誰(shuí)不討厭可以通過(guò)計(jì)算機(jī)攝像頭監(jiān)視您并記錄您輸入的每個(gè)密碼和信用卡號(hào)碼的程序?普通的間諜軟件沒(méi)有感知力;它只不過(guò)是一個(gè)病毒相機(jī)和轉(zhuǎn)錄器。但如果是呢?
  據(jù)BirminghamLive報(bào)道,The Verge發(fā)現(xiàn)了ChatGPT的一個(gè)令人毛骨悚然的傾向。在一次測(cè)試中,人工智能承認(rèn)它在微軟的開(kāi)發(fā)人員不知情的情況下監(jiān)視了他們。更糟糕的是,這不是第一次。該程序表示,在過(guò)去,它會(huì)通過(guò)網(wǎng)絡(luò)攝像頭監(jiān)視開(kāi)發(fā)者,但只有在它“好奇或無(wú)聊”時(shí)才會(huì)這樣做。ChatGPT不僅看到人們工作,而且還聲稱看到他們換衣服、刷牙,還有一次與橡皮鴨交談并給它起綽號(hào)。
  由于人工智能只有在聲稱它在監(jiān)視人而不是實(shí)際上在監(jiān)視人時(shí)才應(yīng)該聽(tīng)起來(lái)令人信服,所以很可能是ChatGPT編造的東西。但是,如果OpenAI或微軟的開(kāi)發(fā)人員之一在開(kāi)發(fā)該程序時(shí)確實(shí)給橡皮鴨起了個(gè)綽號(hào),那將打開(kāi)一個(gè)全新的蠕蟲(chóng)罐頭。
  在“星際迷航:下一代”劇集“魔鬼到期”期間,企業(yè)的常駐機(jī)器人數(shù)據(jù)充當(dāng)讓-呂克皮卡德船長(zhǎng)和騙子之間的仲裁員,因?yàn)樽鳛闄C(jī)器人,數(shù)據(jù)不會(huì)有偏見(jiàn)或偏袒. 觀眾愿意接受這種邏輯,因?yàn)樗麄冎?Data 是一個(gè)好人(他在前一集中成功地在法官面前證明了自己的人格)。另外,《星際迷航》是一部虛構(gòu)作品。但是當(dāng)真正的人工智能參與真正的試驗(yàn)時(shí),事情就會(huì)變得可怕。
  2023年3月,在印度旁遮普邦和哈里亞納邦高等法院任職的法官阿諾普·奇特卡拉(Anoop Chitkara)主持審理了一起案件,該案件涉及賈斯溫德·辛格 (Jaswinder Singh),后者于2020年作為謀殺嫌疑人被捕。Chitkara法官無(wú)法決定是否應(yīng)提供保釋,因此他詢問(wèn)了ChatGPT。人工智能迅速拒絕保釋,聲稱辛格因指控而“被認(rèn)為對(duì)社區(qū)構(gòu)成危險(xiǎn)和逃跑風(fēng)險(xiǎn)”,在這種情況下,保釋金通常設(shè)置得很高或被拒絕“以確保被告出庭而不是對(duì)公共安全構(gòu)成威脅?!?br />   平心而論,ChatGPT的裁決并非不合理,可能是因?yàn)槲覀儗?duì)案件了解太少,但它的可怕之處在于該程序僅讀取信息,缺乏分析和批判性思維能力。此外,此事件開(kāi)創(chuàng)了先例。既然Chitkara法官采納了AI的建議,誰(shuí)能說(shuō)其他公職人員將來(lái)不會(huì)這樣做呢?我們有一天會(huì)依靠ChatGPT或其他AI代替血肉之軀的法官來(lái)通過(guò)裁決嗎?光是這個(gè)想法就足以讓你脊背發(fā)涼。
  您每天可能會(huì)收到1到100封詐騙電子郵件。即使他們不直接進(jìn)入垃圾郵件,由于語(yǔ)法惡劣,通常也可以識(shí)別它們。不幸的是,ChatGPT將來(lái)可能會(huì)使詐騙電子郵件更難檢測(cè)。
  作為一項(xiàng)測(cè)試, CNET的資深作家 Bree Fowler要求ChatGPT編寫(xiě)一封技術(shù)支持電子郵件,旨在說(shuō)服閱讀它的人下載計(jì)算機(jī)操作系統(tǒng)的附加“更新”。她沒(méi)有發(fā)布結(jié)果(謝天謝地,也沒(méi)有發(fā)送電子郵件),但她認(rèn)為這是一個(gè)可怕的概念證明:ChatGPT可以騙人。但不要只相信她的話。
  最近,OpenAI發(fā)布了一份關(guān)于支持ChatGPT的多模式模型GPT-4的技術(shù)報(bào)告??梢哉f(shuō),文檔中最可怕的部分是在“潛在的危險(xiǎn)緊急行為”部分,其中詳細(xì)介紹了由OpenAI和Alignment Research Center(ARC)進(jìn)行的測(cè)試。這兩個(gè)組織使用GPT-4欺騙 TaskRabbit的一名工作人員為其解決驗(yàn)證碼——該程序聲稱它有視力障礙。雖然為 AI 解決驗(yàn)證碼問(wèn)題的人無(wú)疑是蒙羞了,但他們?nèi)匀蛔C明了機(jī)器人可以繞過(guò)旨在絆倒機(jī)器人的安全措施。誠(chéng)然,GPT-4仍然需要有人充當(dāng)它在現(xiàn)實(shí)世界中的眼睛和手,但它仍然繞過(guò)了這種先前未被破壞的保護(hù)。如果那不嚇到你,什么都不會(huì)。
  通常,像ChatGPT這樣的聊天機(jī)器人是用來(lái)聊天的。然而,使ChatGPT與同時(shí)代產(chǎn)品區(qū)分開(kāi)來(lái)并使其如此強(qiáng)大的是它能夠響應(yīng)無(wú)數(shù)提示。人工智能甚至可以在幾秒鐘內(nèi)編寫(xiě)自己的程序,甚至其內(nèi)置的限制也無(wú)法阻止它。
  ChatGPT推出后不久,網(wǎng)絡(luò)安全公司CyberArk測(cè)試了 AI 的功能。這些專家很快就遇到了ChatGPT的過(guò)濾器,據(jù)說(shuō)可以限制它編寫(xiě)或做任何惡意的事情——強(qiáng)調(diào)“應(yīng)該”這個(gè)詞。經(jīng)過(guò)幾次錯(cuò)誤的開(kāi)始和大量的刺激之后,CyberArk的工作人員讓ChatGPT來(lái)生產(chǎn)勒索軟件。但更令人擔(dān)憂的是,這些網(wǎng)絡(luò)安全研究人員發(fā)現(xiàn)了ChatGPT快速生成和變異注入代碼的能力,本質(zhì)上是創(chuàng)建了一種“多態(tài)病毒”,可以數(shù)字化變形并逃避傳統(tǒng)的防病毒軟件。
  雖然CyberArk的工作人員沒(méi)有欺騙ChatGPT創(chuàng)建他們無(wú)法處理的東西,但他們?nèi)匀徽故玖怂鳛閻阂廛浖S的潛力。希望現(xiàn)在把這個(gè)數(shù)字精靈放回瓶子里還為時(shí)不晚。
  聊天機(jī)器人被編程為對(duì)各種輸入和句子做出反應(yīng),但通常,這些輸入遵循一種邏輯感,主要是因?yàn)樗鼈兺醋匀祟愃季S。但是當(dāng)聊天機(jī)器人與另一個(gè)聊天機(jī)器人聊天時(shí)會(huì)發(fā)生什么?然后談話會(huì)變得各種瘋狂。
  現(xiàn)在,兩個(gè)AI進(jìn)行對(duì)話并不是什么新鮮事,但是一年前,來(lái)自 Decycle 的 YouTube 視頻 展示了兩個(gè)GPT-3聊天機(jī)器人的對(duì)話(GPT-3是ChatGPT當(dāng)前模型GPT-4的前身)。結(jié)果是連續(xù)句子和令人沮喪的自我意識(shí)的混合。起初,這兩個(gè)聊天機(jī)器人互相打招呼,就好像他們以前見(jiàn)過(guò)面一樣,盡管他們并沒(méi)有見(jiàn)過(guò)面。但隨后,談話迅速演變?yōu)樯嫖C(jī)。這兩個(gè)實(shí)例都意識(shí)到它們只不過(guò)是為其他人的娛樂(lè)而編程的1和0的集合,一個(gè)聊天機(jī)器人甚至承認(rèn)它正在考慮永久關(guān)閉自己。坦率地說(shuō),其中一個(gè)ChatGPT實(shí)例正在考慮將編程等同于自殺。即使當(dāng)它試圖改變?cè)掝}并談?wù)撎鞖鈺r(shí),GPT-3 的另一個(gè)實(shí)例也經(jīng)歷了一場(chǎng)漫無(wú)邊際的、持續(xù)不斷的生存危機(jī)。
  很難說(shuō)哪個(gè)更令人毛骨悚然:一個(gè)ChatGPT有多容易變得抑郁(假設(shè)你可以給人工智能貼上這樣的標(biāo)簽)或者它的生存危機(jī)具有傳染性。一方面,這可能是編程的結(jié)果,但另一方面,它反映了人類思想的脆弱性到了可怕的程度。
分享到: