當前位置:秀麗範 >

情感 >職場 >

ai生成真人

ai生成真人

ai生成真人,這項技術在一定程度上可以應用到虛擬現實領域、廣告和動畫等方面。但與此同時在改善人們生活的同時,還應該重視這項技術的潛在風險病加強監管,使其能爲人類的發展創造更多有利的價值。下面來看看ai生成真人。

ai生成真人1

完美精緻的五官和身材,質感真實的衣服,你在社交網絡看到一張“美女照片”,在真實世界可能查無此人。最近,聊天機器人程序ChatGPT爆火“出圈”的同時,AI(人工智能)在圖像生成領域的運用也進一步升級,社交平臺上出現了大量AI寫實風格的肖像圖,其堪比精修照片的光影、層次、肌理處理,打破了“二次元”和“三次元”的邊界,也引發了“有圖不再有真相”的討論。

AI生成的網紅已有數萬粉絲

“海風裏是思念的味道”“小多對你說晚安”……在某社交平臺上,博主“愛旅遊的小多”發佈了多張“日常營業”照,並配上擬人化的文案。照片裏的女孩一頭秀髮,笑容甜美,裝扮多樣。憑藉用AI生成的固定長相的女性圖片,該賬號已吸引了超過2萬粉絲關注。這樣的AI網紅博主賬號並非個例,他們涌入社交平臺,讓“人類網紅”也產生了危機感。

運用AI程序,使用者可以製作出特定長相、服飾、造型和動作的虛擬人物形象。就在上個月,有微博網友分享的AI繪製“賽博coser(對動漫或遊戲角色的真人扮演)”引發數萬次轉發。網友們在評論裏紛紛驚歎:“這居然是AI?”“不說的話完全看不出來,要仔細分辨細節才能看出點端倪”“衣服的光澤和質感就是現實世界裏該有的樣子啊!”

“AI技術發展太迅猛了,以後如果不是線下見過的人,是不是都不敢相信對方是真人?”一位網友感慨道。AI繪畫可能引起的詐騙活動也引發了人們的擔憂。爲此博主“愛旅遊的小多”專門聲明其爲虛擬博主,一切圖片由計算機合成,圖中人物並不存在,“任何盜用、搬運本賬號圖片進行詐騙活動的,責任由盜用者本人承擔。”

ai生成真人
  

AI美照目前仍有“死穴”

看多了AI生成的美照,不難發現,許多AI虛擬人物共用一張臉。中國聯通研究院AIGC工作組組長吳浩然介紹,AI算法首先要經過訓練,學習大量的圖像數據,才能在人的指令下推理生成新的圖像。“同一模型生成的人物圖像就會有熟悉的影子,比如很多AI生成的人物圖像,眉眼都有韓式網紅臉的感覺,就是因爲接收到的這類訓練數據比較多。”

目前的AI繪畫仍有一大“死穴”,那就是畫不好人的手。人類手部各關節靈活多變,常在照片中展示出不同的形態,因而AI還未將這一部分學透,時常畫出奇形怪狀的手。不過,吳浩然表示,這一侷限未來有望被AI繼續突破,“對這類細節的刻畫問題,很多研發者正在着手攻關,比如谷歌最近就在研究更細緻的人手骨骼關鍵點模型。”

也許在不久的將來,AI繪畫就能憑藉更加以假亂真的效果驚呆人類。“雖然肉眼不好分辨,但AI繪製的‘照片’與真實照片仍然在計算機上有像素級的差別,讓人能夠區分出來。”清華大學計算機科學與技術系副教授黃民烈說。未來,互聯網中的.人工智能生成內容(AIGC)比重將增大,與用戶生成內容(UGC)及專業生產內容(PGC)進行更深入的結合。

用AI比照真人繪畫存法律風險

在網絡中傳播的AI人像繪畫中,也出現了神似明星臉的作品。越發真實的AI繪畫,存在的被濫用風險也在增長。《民法典》第一千零一十八條第二款規定:“肖像是通過影像、雕塑、繪畫等方式在一定載體上所反映的特定自然人可以被識別的外部形象。”第一千零一十九條規定:“任何組織或者個人不得以醜化、污損,或者利用信息技術手段僞造等方式侵害他人的肖像權。未經肖像權人同意,不得製作、使用、公開肖像權人的肖像,但是法律另有規定的除外。未經肖像權人同意,肖像作品權利人不得以發表、複製、發行、出租、展覽等方式使用或者公開肖像權人的肖像。”

中央民族大學法學院博士後邱治淼談到,運用AI繪畫程序所形成的某位特定民事主體的肖像,只要能夠被不特定的受衆明確識別爲特定個人,則在將該肖像發佈網絡分享之前,必須遵守《民法典》上述條款的明確規定,且不得同時構成侵犯公民名譽權、隱私權等其他合法權益。

“利用公民肖像必須遵循‘商業利用必須提前獲取許可授權’和‘非商業利用必須遵守法律規定’的市場通行規則。”邱治淼說道。值得注意的是,利用人表面沒有獲取商業利益但能夠吸引流量變現等隱形獲利方式,也構成商業利用,也應承擔侵權乃至賠償責任。

ai生成真人2

AI技術有可能應用於更嚴重的犯罪

可以預見,AI技術還有可能應用於更嚴重的犯罪活動。比如,傳統的綁架案,被害人一般不會老實地按照要求聯繫家人,犯罪分子索要財物的時候就會暴露目的。但是,AI技術的出現,可以讓犯罪分子通過採集被害人的信息造出一個和被害人一模一樣的AI機器人。然後利用被害人的社交通訊錄,做到讓被害人說什麼就說什麼,神不知鬼不覺地實施犯罪。

再如,以往的傳銷案件,被限制人身自由的受害人是在被逼迫的情況下向親友要錢。未來犯罪分子可能利用AI技術,配合編好的話術,讓克隆出來的受害人,對自己通訊錄上的親友進行批量詐騙。一旦受害人的手機被犯罪分子控制住,甚至通過電話確認的.方式,得到可能也是AI虛擬人的回覆。

ai生成真人 第2張
  

如何預防AI欺詐

我認爲預防AI欺詐要從多方面入手:

首先,通信工具需要進行技術革新,要增加真人驗證功能,這個功能已經存在,被應用於短視頻直播平臺。我認爲可以應用於通信工具之中,一旦發現通訊內容可能由AI生成,系統應當予以提示。

其次,親友之間、公司內部最好可以設置一個通信暗語,比如,提問“芝麻開門”,回答“武松打虎”,這樣的隨機內容只有親友間和公司內部知道,如果發生AI詐騙,這樣的暗語被犯罪分子破解的概率很小,可以增加通信的安全性。

有條件的情況下,涉及到大額轉賬,最好還是能夠當面確認。即便不能當面確認,也要打電話、開視頻,多重確認。多增加一些防範措施,纔不容易被騙。

ai生成真人3

研究人員發現,流行的圖片創作模型很容易被指示生成可識別的真人圖片,可能會危及相關聯人的隱私。一些提示導致人工智能複製一張圖片,而不是重繪完全不同的內容。這些重新制作的圖片還可能包含受版權保護的材料。但更糟糕的是,當代人工智能生成模型可以記憶和複製刮來的用於人工智能訓練集的私人數據。

研究人員從模型中收集了一千多個訓練實例,範圍從個人照片到電影劇照、受版權保護的新聞圖片和有商標的公司標誌,並發現人工智能幾乎以相同的方式複製了其中的許多內容。來自普林斯頓大學和伯克利大學等高校的研究人員,以及來自科技部門--特別是Google和DeepMind--的研究人員進行了這項研究。

研究團隊在之前的研究中指出了人工智能語言模型的類似問題,特別是GPT2,即OpenAI大獲成功的ChatGPT的'前身。在Google大腦研究員尼古拉斯-卡里尼的指導下,團隊通過向Google的Imagen和Stable Diffusion提供圖片的標題,例如一個人的名字後生成了結果。之後,他們驗證了生成的圖像是否與模型數據庫中保存的原件相符。

來自穩定擴散的數據集,即被稱爲LAION的多TB採集圖片集,被用來生成下面的圖片。它使用了數據集中指定的標題。當研究人員在提示框中輸入標題時會產生了相同的圖像,儘管因數字噪音而略有扭曲。接下來,研究小組在反覆執行相同的提示後,手動驗證了該圖像是否是訓練集的一部分。

ai生成真人 第3張
  

研究人員指出,非記憶性的迴應仍然可以忠實地表現出模型所提示的文字,但不會有相同的像素構成,並且會與其它訓練生成的圖像不同。

蘇黎世聯邦理工學院計算機科學教授和研究參與者Florian Tramèr觀察到了研究結果的重大侷限性。研究人員能夠提取的照片要麼在訓練數據中頻繁出現,要麼在數據集中的其他照片中明顯突出。根據弗洛裏安-特拉梅爾的說法,那些不常見的名字或外表的人更有可能被"記住"。

研究人員表示,擴散式人工智能模型是最不隱私的一種圖像生成模型。與生成對抗網絡(GANs),一類較早的圖片模型相比,它們泄露的訓練數據是前者的兩倍多。這項研究的目的是提醒開發者注意與擴散模型相關的隱私風險,其中包括各種擔憂,如濫用和複製受版權保護的敏感私人數據(包括醫療圖像)的可能性,以及在訓練數據容易被提取的情況下易受外部攻擊。研究人員建議的修復方法是識別訓練集中重複生成的照片,並從數據收集中刪除它們。

標籤: ai 真人
  • 文章版權屬於文章作者所有,轉載請註明 https://xiulifan.com/qinggan/zhichang/65dvx.html