标题: 無人駕駛汽車的安全問題似乎仍然不能讓專家完全放心
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-24 15:24 资料 文集 短消息 只看该作者
無人駕駛汽車的安全問題似乎仍然不能讓專家完全放心

英國一份最新由政府出資贊助的調研報告顯示,儘管人工智能(智慧)科技發展迅速,但是自動駕駛汽車全面取代人工駕駛汽車的日子似乎尚未完全到來,因為前者的安全性如何定義並「沒有簡單的答案」。

數據倫理與創新中心的報告警告說,自動駕駛汽車僅比普通汽車更安全是不夠的。
報告指出,公眾對無人駕駛汽車相撞事故的容忍程度很低,儘管無人駕駛汽車平均來說比普通汽車更安全。
這個報告出台的時候正值英國政府在制定自動駕駛汽車的有關計劃。交通部早先曾表示,明年甚至可能允許一些有自動駕駛功能的轎車,大轎車和貨車在高速公路上行駛。
英國政府的計劃裏面包括車輛的「安全目標」:即這些汽車應該和有能力的司機駕駛的車同樣安全。
報告說,這將提出要達到的標凖,需要滿足這些標凖才能允許自動駕駛車輛上路——如果自動駕駛車輛達不到這些標凖,汽車製造商可能會面對制裁。
數據倫理與創新中心是個由專家組成的政府機構,他們負責使用數據和人工智能進行可信賴的創新。該機構說,自動駕駛汽車的安全性應該不是一個僅靠科學就能回答的問題。
報告說,公眾可能很難容忍這種相撞事故,即使在平均水平上自動駕駛汽車比人駕駛的汽車更安全,但公眾會把自動駕駛汽車的事故看成「不負責任的科技公司或規範管制鬆弛」的過錯。
報告警告說,似乎公眾期望自動駕駛汽車能像火車或客機一樣安全,那樣就需要無人駕駛汽車的平均安全性比有人駕駛汽車高100倍。
倫敦大學學院(UCL)教授斯蒂戈(Jack Stilgoe) 是數據倫理與創新中心的顧問。他說「我們想做的就是說,對於這個問題並沒有簡單的答案。」他的建議是,建立安全標凖應該是個民主決定。
數據倫理與創新中心說,要考慮如何把風險分散到不同的群體當中,這點很重要。即使在總體安全上有改善,「一些人群可能看到了實質性安全改善,而其他人群則沒有看到任何改善,甚至看到了新的風險。」





駕駛者的偏見

報告建議,隨著新技術得到應用,需要對其他風險進行評估。
周五(8月19日)英國政府公布了一個政策文件為計劃中的立法做凖備,即凖備開始允許自動駕駛車輛使用英國道路
一個就是在控制車輛的算法中存在潛在的偏見。
報告警告說,一些人群,諸如輪椅使用者,可能在數據中僅佔很小的部分,而控制車輛的算法使用這些數據進行訓練,這就可能產生偏見。
報告還指出,自動駕駛車輛應該有明顯的標識,這樣「人們有權知道同他們分享道路的是什麼樣的駕駛者。」
數據倫理與創新中心在報告中引用了一個學術調查,該調查說86%的公眾同意這種觀點。
斯蒂戈教授說,如何在公路上測試無人駕駛車輛是個嚴肅的倫理問題,因為公路的其他使用者,不管他們願意與否,在事實上可能變成了測試的參加者。
他說「在了解的前提下獲得同意是個道德原則,這一點很重要。」
這種技術可能可能導致要改變道路和道路規則的壓力以適應自動駕駛車輛的需要。
斯蒂戈教授說,這就需要辯論應該在透明的情況下進行。
他說「危險在於,世界在不明真相的情況下走進新階段,發生了順應一種交通形式的改變,但所帶來的益處並沒有廣泛的影響。」


顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-24 15:42 资料 文集 短消息 只看该作者
我想借這題目討論一帖關於倫理,和法律上AI和人的問題

首先以這頂樓的資料來看
當今AI開車的平均水平已經高於人類的平均水平了,這點沒甚麼好爭辯的

主要是在觀察工具的多寡,人機互動的速度,還有體能的狀況,靈敏度等,機器已經高於人類了

不是說AI多厲害,而是說人類司機很多菜雞,路怒,疲勞,老弱
兩廂對比有一方太菜,所以顯得另一方好

=======

所以從技術上來看我在互聯網幾乎沒有甚麼討論空間,AI開得相對更好是共識了
從金錢上來說也不是問題,省下的司機工資成立一筆保險經費完全夠覆蓋,甚至於保費還低呢

而大多反對AI開車的聲音主要是從倫理角度看的
說白了他們的精神內核是表達"人類司機天然更具有犯錯的權利"
(人撞死人問題不大,機器撞死人了光賠事完事,我們倫理上接受不來)

人類司機撞死人,只要願意罰錢坐牢(相當於人來承受刑罰),那就是可以接受的(甚至很多實務上光坐牢,無錢可賠也是常態)
AI司機撞死人,從倫理上最多只能做到光罰錢不坐牢,那相當於為富不仁
這屬於一種人類的特權,不能讓渡給AI司機

我理解這是反AI開車的人基本思路
這個哲學意義上人類優先,在社會學中也沒啥毛病

那順應這個思路,我覺得AI開車普遍化貌似也不難滿足
換句話說只要每部車能找到一個"人類",來為潛在的意外承擔刑事或民事責任就好了

比如在很多堅決反對AI司機的地區
出租車,或者貨車等,能不能每部車另外派一個人當"剎車員",或者叫"AI指揮員"

這個人平時坐車上躺著玩手機就行,他實際上是沒有任務的
但面對公眾面向上,法律上他的工作內容是當汽車失控時他應該著手接管車輛
並承擔這部車出事後,金錢理賠以外(理賠由AI司機的企業負責)的所有法律責任
這麼一來,是不是法律,倫理,技術,賠償金額問題,全部迎刃而解了呢?

從社會角度上這個"剎車員"相當於一個普通的司機,只是這個司機採用了一套更厲害的駕駛系統罷了
如果你能支持現在的人類司機,你沒有理由反對這個"剎車員"來開車
遇事了這個人也能賠錢,也能坐牢,而這個人的工資還低,可能一個貨車司機月薪要1萬,這個人只要5000就行了
這樣一來對這個人的駕駛技術,體能需求,精力需求就很寬了

=========


更進一步的是,這個人能不能不在車上控制呢?如果他願意絕對負責的話,他坐在家中遠程指揮可以嗎
又或者他每次同時指揮2-3部車可以嗎?


紅字部分屬於待定的額外思考

[ 本帖最后由 橙炎陽 于 2023-9-24 15:50 编辑 ]


顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-24 20:27 资料 个人空间 短消息 只看该作者
回复 #2 橙炎陽 的帖子

艳阳回来了呢,好久不见

无人驾驶最大的问题在于事故定性。是车技不行出车祸,还是程序有bug出车祸?程序有bug撞死人,是公司法人坐牢,还是程序员坐牢?这些目前并无解答,法院对于受理这样的案件也存在专业壁垒
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-24 21:54 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-24 20:27 发表
艳阳回来了呢,好久不见

无人驾驶最大的问题在于事故定性。是车技不行出车祸,还是程序有bug出车祸?程序有bug撞死人,是公司法人坐牢,还是程序员坐牢?这些目前并无解答,法院对于受理这样的案件也存在专业壁垒 ...

向南飛兄問好,許久不見甚是想念

========

這個我認為不是問題

三個小孩都不想洗廁所,此時你挑誰去洗是個問題,但三個小孩有1個自願洗廁所,那就不是問題

你說的問題是因為多方都不承認責任所以難以定性
如果預先協商好並簽定協議由有一方承擔責任,那問題不大
比如我上文說的"剎車員"
只要金額夠多,讓他在工作性質上主動自願承擔責任即可解決

事實上按現在的中國法規,如果用了低級別的無人駕駛出意外了,駕駛員自願承擔責任的話,社會大眾也挑不出甚麼毛病吧?

======

我舉個很簡單的例子,今天你開著一部帶輔助駕駛的電動車去玩
然後你撞到別人的車了

你出於甚麼理由不論,你下車主動承認錯誤,並願意賠償
社會不會對你這個行為多說甚麼,也不會不讓你認錯賠債,並強行要求繞過你,而要求程序員出來坐牢吧

那同樣道理可知,如果你今天是受聘於電動車方,在上面當司機(其實你啥都沒錯)
出了事故,你出來擔責
也沒有人會覺得你不能來擔這個責對吧?

那無非就是花錢聘"你"來擔這個責要多少費用的問題

======

從邏輯上來說100部AI車出險率是低於100個人類司機的
所以AI車用的"擔責員"所需成本是低於100個人類司機的

AI汽車的效率+低出險率省下的錢就遠遠足夠覆蓋擔責員的工資和"擔責費"了

今天社會上的司機工資能夠讓司機自願去冒交通事故的風險,和消耗大量的時間和精力來勞動,就同樣的比例花更多的資金就能聘得到更多的"擔責員"出來"駕駛"AI汽車
舉個簡單的例子

A. 如果今天的行情是一個貨車司機月薪1萬,每天要集中精力開車8小時,出現交通事故概率是5%,風險自理
B. 如果我提供他一個AI擔責員性質的工作(或者叫輔助駕駛操作員)月薪也是1萬,但是幾乎不怎麼需要用腦用手,工作時間降到6小時(AI更順,而且效率更高),工位也更寬敞(汽車省下了大量的人機設備)
而且發生事故的概率降為0.5%
他會不會自願接受風險而轉過來我這裡上班呢?

他自願接受這個風險,那道德論理爭議不就自然解決了嗎?

要說B.這份工作不道德,屬於拿錢找人頂罪,也不恰當
B工作性質比A輕鬆,風險比A小,開支和A一樣,從A改變成B,明明是道德的提升,而不是墮落
如果我們說B這種工作不道德,那A更不道德,那所有職業司機的工作都應該取消

[ 本帖最后由 橙炎陽 于 2023-9-25 09:42 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-25 17:14 资料 个人空间 短消息 只看该作者
回复 #4 橙炎陽 的帖子

想象场景不错,具体技术上如何实现呢?比如如何同时控制两车?如果两部车都遭遇车祸要刹车,你所谓的代驾如何同时操作?
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-25 20:03 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-25 17:14 发表
想象场景不错,具体技术上如何实现呢?比如如何同时控制两车?如果两部车都遭遇车祸要刹车,你所谓的代驾如何同时操作?

類似網遊練功兩個屏切換之類的,同時遭遇算倒楣囉.....
或者同時按停,可能連報錯都會是自動的
您說這點涉及人生安全,確實有問題,我這個看法有點欠妥
下面補充了一個理想情況好些,但仍稍欠妥


我想討論的是:

如果有一個"司機"(不實際動手開車)自願擔人身責任,而有一家公司(是企業也好是保險也行)自願擔財務責任的話,
那AI汽車是不是就能上路了?

如果答案為是

那走出了第一步,後面的就簡單了
觀察1年後如果這些"頂罪司機"跟本沒出過半點問題,幾乎0風險

那消費者就會願意去駕駛這類AI汽車,並自己來承擔人身責任了,從而省下費用/人工
(比如說配一個背鍋員的汽車費用是5000/月,自己當背鍋俠的費用是3000/月)
比如觀望的家用消費者,或者貨運公司,可能甚至願意自己來背法律風險,從而來創造生產力
或者屆時再搞成"多頻串行"也行,一個背鍋俠同時操控2-3部車,社會也容易接受

那AI汽車自然水到渠成了
有啥倫理爭議好說呢?

反之
如果那些司機頻頻出事,那AI汽車的名頭也自然臭了

我感覺很簡單的事實問題,有啥倫理嘴跑好打呢

[ 本帖最后由 橙炎陽 于 2023-9-26 07:14 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-26 09:41 资料 个人空间 短消息 只看该作者
回复 #6 橙炎陽 的帖子

我看艳阳的想法大体上也就是远程驾驶。这点其实与AI没什么关系。远程驾驶目前网络稳定性还不理想,遇到有事时网络卡顿,移动公司可不愿意担责
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-26 14:13 资料 文集 短消息 只看该作者
回复 #7 乌鹊南飞3 的帖子

我覺得這檔子事就是從近到遠,既然遠程大家覺得不放心,那一開始可以不遠程,就坐車上,但不動手先試試
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-26 18:23 资料 个人空间 短消息 只看该作者
回复 #8 橙炎陽 的帖子

不动手那不就是替死鬼顶罪嘛。这是典型违法行为
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-26 18:39 资料 文集 短消息 只看该作者
回复 #9 乌鹊南飞3 的帖子

敢情咱寫的帖您是沒看了
回到4樓一開始的問題

假設你開了一部車,用了輔助駕駛,手離開了,車子在你的監督中撞了一個物品,你下車查看並主動擔責

會是違法行為嗎?
交警或者受害人能不能要求不讓你擔責並追究你的違法行為,然後自己去找廠家擔責?

=======

以現行的中國法律基礎來看,輔助駕駛期間的事故本身就是由駕駛人負責任的
那在這個基礎上

企業和司機二次付費約定一下如果這種事情一旦發生了,駕駛員要盡量履行法律責任,雙方約定各自守法卻變成了違法行為,你覺得有這個道理嗎?

[ 本帖最后由 橙炎陽 于 2023-9-26 19:40 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-26 21:07 资料 个人空间 短消息 只看该作者
回复 #10 橙炎陽 的帖子

辅助驾驶出了车祸为什么要驾驶员负责?特斯拉是这样的?

这就像游乐场坐云霄飞车,有出了事叫游客负法律责任的?
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-26 22:11 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-26 21:07 发表
辅助驾驶出了车祸为什么要驾驶员负责?特斯拉是这样的?
这就像游乐场坐云霄飞车,有出了事叫游客负法律责任的?

知其然:

我看過一個報導,看我國的判例來說,就最近的7-8年輔助駕駛的意外事故,無一不是駕駛人(坐在司機位子上的人)負責
既定事實沒啥好辯的
大部分國外過去不久乃至現行法律也都類似,當然近年英國,加拿大有逐漸放開自動AI出租車,在某些城市慢慢轉變成汽車公司擔責了,但這是另一回事

所以然:

至於你要問這個事邏輯上為什麼
那原因就有很多種角度解釋了

=======

1. 我不擅長法理解釋,要從人的駕駛特權來說起,我說不上來,大致上就是機械操作者有監管的義務,但這個問題沒完沒了,你又會繼續問為什麼這個義務不是機械製造者承擔

2. 用類比的解釋就是類似汽車機械有缺陷,也是司機的鍋,至於後續代位的賠償另說,你撞到人了你先賠償傷者,至於你找不找汽車製造者是另一回事

3. 用換位思考的解釋也很好理解,任何人走在路上被另一架車撞了,或者在工廠被機器弄傷了,在餐廳吃飯被吊燈砸傷了
開車的,開工廠的,開餐廳的說不干他的事,叫傷者去找始作俑者,沒有人會願意的

=======

我能想到其中一個比較簡單的側面解答是:
社會是一個複製的鍊條,你很好找到第一環,但你永遠找不到最後一環
如果開餐廳的吊燈砸到人了而餐廳老闆可以用說是裝修公司的錯而不理賠,
那裝修公司也能說是施工隊的鍋,施工隊也可以說是賣燈的鍋,賣燈的可以說是五金的鍋,五金的又可以說是機械廠的鍋,機械還能說是治礦的鍋

正常情況下法律用的是代位賠償模式,你是直接責任人你先賠,後面的你想找誰你自己找去

========

自動駕駛同理,編程這種東西怎麼能找到"第一個責任人"呢?
電腦程序是由母程序編出來的,而母程序又有上一個母程序
其它諸如攝像頭之類的配件同理

甚至很多設備的原廠/原製造人都可以是已破產,或者不存在,已過世的

這種問題追溯不下去的,只能採用民事自願原理,如果有人自願,就這個人承擔,沒人自願,就找鍊條最近的一環

拿中國為例,就是沒人願意承擔,所以找司機
拿加拿大有合法出租車上路的情況,AI出租車公司願意承擔,就由他們承擔
拿加拿大其它不合法AI汽車的地方,那還是司機承擔

========

我覺得爭辯這個常識性問題落入下乘了
大部分國家民眾反對自動駕駛如果提的是倫理道德理由,我認為是不攻自破的
你說1000個人開傳統車撞死人是社會能接受的,
而1000輛AI汽車上路不行,那我聘1000個人坐在AI汽車的司機席上即可,你一點理都挑不出來的

我能接受的理由是社會失業的焦慮這類理由,比如自動駕駛太6了,會導致太多人失業

========

如果單純為了阻止自動駕駛就要連開車人有權對自動駕駛的後果負責這種常識都要否定
那我覺得社會是得不償失的,BUG只會更多

[ 本帖最后由 橙炎陽 于 2023-9-27 08:06 编辑 ]
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-26 23:00 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-26 21:07 发表
辅助驾驶出了车祸为什么要驾驶员负责?特斯拉是这样的?

这就像游乐场坐云霄飞车,有出了事叫游客负法律责任的?

"AI如果出了意外怎麼辦,這裡倫理問題好大啊"
這種話一點都站不住腳的

是說現在開發自動駕駛的公司不想多花錢,而且考慮社會影響(不想得罪市場,用戶,當地社區,工會,和造成就業影響)
不愛去打這些嘴硬派的臉罷了

大多自動駕駛公司是很與人為善的,那個國家不讓,就先不強行推動了,讓願意的國家先用
慢慢讓生產力和歷史來證明一切

======

如果是真想花錢抬這個槓,比如我做AI汽車公司

我今個就弄1部AI汽車在路上走,比大部分人類安全舒適還多快好省,天天爽
誰要說AI汽車沒司機有倫理問題,那我就放個司機坐在上面做做樣子
誰要說司機不能擔責,只能程序員擔責,那我就找1個有駕照的程序員來當這個AI汽車項目的總工程師坐車上
誰要說程序員也不行,非得廠家,軟件公司擔責,那我就叫這個程序員成立一家項目公司,他來當老總
要說軟件不行還得硬件,那我再開家汽車加工廠給他

我就不信還能挑出甚麼理

======

汽車從第一天發明到現在沒有不撞死人的,為什麼能一直用,說白了就是社會內核認為人命是可以衡量的
汽車帶來的正面效率>>>>>撞死人的損失


所以就同意了

而AI汽車的道理也是一樣的,如果他的生產力遠大於汽車,而撞死人的損失甚至更小,那沒啥好說的,只能接受
當然這裡涉及一個人類自私的問題

就是人天生有高於萬物的特權,人的行為那怕會無意傷害到其它人,一般也不會承受太大刑責(比如酒駕撞死人,很多時候也不用對等鎗斃)
人開車撞死另一個人,人們或者會哀悼,會要求罰一下司機,但不會就這個普遍現象進行甚麼反思
而如果讓AI把人撞死了,大部分人類心裡上過不了這個坎

我提出放個人類司機在AI汽車上並不是想多撞死幾個人,只是想反諷這種人類特權式的思維

======

另外順嘴一說,上面紅字說的,汽車為什麼這麼危險,還能被容許
這個問題在上世紀的發達國家的市民之間是有討論的,很多人說馬車,牛車之類的更人性,更安全
清末也有那個大儒說過,汽車是最不仁義的物件(以前聽軒轅老虎兄說的,記得是豐子愷?)

而像中國,非洲,南美,之類的後發國家,市民們很自然地忽略了這個問題
反正自然而然看到列強有,很方便,我們也要過上好日子,我們要追趕列強,就自然用上了
如果紅字是大部分人文化底蘊裡思考過的,那AI汽車有沒有倫理問題,就自然迎刃而解

======

堅決不思考,反對,那將來看別人方便到一定程度,還是得跟上的
我是不相信有那一個民族能看到國外天天汽車自己安心用馬車的
同理看著大部分國家開上AI車了,自己還開自動檔的

無非就是早跟上,還是晚跟上的區別

[ 本帖最后由 橙炎陽 于 2023-9-26 23:03 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-27 09:32 资料 个人空间 短消息 只看该作者
回复 #13 橙炎陽 的帖子

产品的安全与可靠性,品质部门就应该担责。不论研发采用了多少别人的技术,致命的问题必须检查出来。否则产品就是不良品。

现在AI驾驶便是如此,投向市场有车祸,那么品质部门是否能检查出来?检查出来之后,车商有什么应对措施?比如AI驾驶出车祸有没有专门的保险?

驾驶员之所以担责,是因为必须先考驾照,然后才能上路。那么AI的驾照由谁认证的?这是必要的监管环节

什么都没有便鼓吹上马,那是钻法律空子
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-27 11:19 资料 文集 短消息 只看该作者
回复 #14 乌鹊南飞3 的帖子

是這麼說沒錯,那談到可靠性就應該看數據說話
你談到"可靠性"就應該有個參考物,是說只要比人類更可靠就能同意它上路,還是要比完美無事故更可靠才能上路
如果沒有參照物,可靠性高這個評價有甚麼意義?
(如果對比1歲嬰兒開車的水平,我用腳開車可靠性都很高)



人類司機一天事故多少單,提高生產力值多少錢
AI司機一天事故多少單,提高生產力值多少錢

大家建立一個標準,勝者上,敗者下,這才是對人民群眾財產負責的態度

而不是說"倫理"有問題,尤其是人類作為司機,普遍開車技術不高的前提下扯倫理

扯偶理有問題的潛台詞就是:
"人類撞死10000個人我不管,AI撞死10個人不行"
那再換一句話就是
"那怕人類司機更差,也得堅持用人類司機"
既然講到人類這麼至高無上,那順應這個邏輯每輛AI汽車上放個"人類司機"在來對應普羅大眾這套思路就是情理之中了

不是鑽法律空子,而是諷刺倫理派的雙標

========

市民的主流聲音講到駕證就愈容易考愈好,一個個僥倖考到駕照都是當好消息在講,考不上的,犯了一兩個小錯誤,就罵考官上崗上線
平時不把事故安全放在心上

講到AI又假惺惺地說人類極寶貴,一個都不能少
這個空子來自普羅大眾的雙標,而不是來自車廠奸滑

[ 本帖最后由 橙炎陽 于 2023-9-27 14:40 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-27 17:10 资料 个人空间 短消息 只看该作者
回复 #15 橙炎陽 的帖子

可靠性不是看参照物,而是客户的要求必须达到。

网上有很多人恐慌机器人,往后十年歧视机器人与AI都是可以想象的。艳阳认为机器人与人类应该按同样标准?机器人可以秒算九位数乘法,人类也按这个标准来要求?
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-28 08:02 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-27 17:10 发表
可靠性不是看参照物,而是客户的要求必须达到。

网上有很多人恐慌机器人,往后十年歧视机器人与AI都是可以想象的。艳阳认为机器人与人类应该按同样标准?机器人可以秒算九位数乘法,人类也按这个标准来要求? ...

談事情應該就就事論事,不要談論主觀的喜惡,恐慌,或者歧視

不然又會變成以力服力,人多欺人少
你不喜歡加班,你老闆也不喜歡你不加班,大家都不講道理,單純拿喜歡不喜歡說事,最後就是叢林法則了

我還恐慌吃飯要給錢呢,那我吃飯就可以不給錢了嗎?
還是說我一個人恐慌不夠,我湊到一千萬個人恐慌就可以了?
這是法不責眾,還是哄搶效應?

==========

像您描述的這些人這種觀點,覺得凡事只要涉及到人就能網開一面

那AI汽車公司每輛車放一個緊急制動員在上面,不就正合他們意嘛
可謂求仁得仁

放個緊急制動員在上面另一個層面的意義是他可以作為辯論手,發言人的身份,避免交通事故後AI汽車和人類司機面對人類交警爭論時的弱勢,和有理說不清
假如你是理虧一方,不管你是多少駕齡的老司機,要胡攪蠻纏一般而言你還真贏不了這個"辯論手"
AI汽車普遍有10個左右的全方位攝像頭,既是輔助駕駛,又是行車記錄,要找一個開著帶10攝像頭,基本還能還原3D動畫和兩車對應位置的車碰瓷,絕對是不理智的
另外在民風極度歧視AI司機的地區,這個人可以起迷惑功能,車隊在外觀上不能直接被辨認出來那架車是人類開的,那架車是AI開的,只是找個人坐班

說白了這個人類甚麼具體事務都沒幹,全部拿來應付偶發,潛在的針對,歧視,和奸滑
這整個事看起來多麼黑色幽默

同樣類似令我想起早年很多外資企業,聘了一個洋人經理,甚麼具體事務都不用操作,很多供應商,或者廣告方,合作方,談判時,請他上去走個過場,對方立馬變得好說話

你說怪這家企業奸嗎,還是怪周遭的人雙重標準呢

[ 本帖最后由 橙炎陽 于 2023-9-28 09:03 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-28 09:58 资料 个人空间 短消息 只看该作者
回复 #17 橙炎陽 的帖子

艳阳这种出租司机的做法不是汽车公司的主业,而且目前技术还不支持。车企自身就不会支持这种费力不讨好的事情。缓行是必然的

人类对机器人区别待遇是肯定的,这点三百年都不见得会改变。你要为这点摇旗呐喊得有毅力呢
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-28 12:33 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-28 09:58 发表
艳阳这种出租司机的做法不是汽车公司的主业,而且目前技术还不支持。车企自身就不会支持这种费力不讨好的事情。缓行是必然的

人类对机器人区别待遇是肯定的,这点三百年都不见得会改变。你要为这点摇旗呐喊得有毅力呢 ...

談技術,談社會就業影響,我都抱持開放態度
談倫理我看不到有甚麼問題,簡單設想一個模式就駁得不要不要的

說AI撞死人有倫理問題前提是不合理的
因為本身傳統汽車的引入就是沒遵守倫理制度
這是我本篇的重點

=====

事實上這種區別待遇的BUG一遍又一遍地在社會新聞冒出來
但凡理智一點的人應該已經能看清雙標的危害了,堅持不懈一直設計新的雙標出來我也是醉了
特別是一邊宣導雙標,一邊說別人鑽法律空子的說法最不恰當
----既設計了針對某個群體的門檻,還不允許別人繞開

比如我說的早年外資請洋人當門面
或者甚麼外國人幫忙報警
個體戶在市場上更佔便宜於是大企業求轉型分拆成很多個體戶

這理當中的核心思路都是一樣的
既然有優待A,不優待B的條文
就自然會有B群體去付費給A群體來解決B的需求

[ 本帖最后由 橙炎陽 于 2023-9-28 12:47 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-29 10:16 资料 个人空间 短消息 只看该作者
回复 #19 橙炎陽 的帖子

引入伦理也有犯罪动机的考量。个人的犯罪能力是有限的,机器人的犯罪能力则是无限的。以汽车为例,人类开车肇事,恐怖分子也只杀得十几人。机器人自动驾驶杀人,那就不是几百打得住。机器人的犯罪能力比人高几个数量级,为什么不讨论机器人的伦理?

至于有新型职业出现,这未必是坏事。AI本来就会造成失业,由此催生新就业并不见得是坏事

PS:艳阳中秋快乐

[ 本帖最后由 乌鹊南飞3 于 2023-9-29 10:32 编辑 ]
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-29 11:24 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-29 10:16 发表
引入伦理也有犯罪动机的考量。个人的犯罪能力是有限的,机器人的犯罪能力则是无限的。以汽车为例,人类开车肇事,恐怖分子也只杀得十几人。机器人自动驾驶杀人,那就不是几百打得住。机器人的犯罪能力比人高几个数量级,为什么 ...

這也還是技術問題
這種憂慮的探討我是樂見的

這裡說的倫理是指人類這種身份的特殊性
人類撞死人無所謂,AI就非得提高一個強度,那怕0.0001%也得挑刺
這種"非量化,不客觀"的情緒主導問題

產品由情緒作為標杆,那是有失公平的

PS中秋節快樂啊老哥請您吃個帶炎的月餅

[ 本帖最后由 橙炎陽 于 2023-9-29 11:32 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-29 14:28 资料 个人空间 短消息 只看该作者
回复 #21 橙炎陽 的帖子

以目前群众的理科认知水平嘛,机器人的到底做到哪一步比较合理,是没个谱的。有人认为机器人需要做到零失误,有人认为机器人比人类低两个数量级可以放行,还有像艳阳这种认为机器人跟人类差不多就行。

现存刑法对机器人基本上没有威慑与惩戒的力量。判死刑是不是把硬盘格式化就行?判二十年是不是该编号关机就行?人类撞死人有保险,有车祸刑责,对马路杀手是有威慑力的,重复犯错的几率很低。如何制止机器人不再重复犯错?机器人有bug,或者中木马,重复犯错基本上是必然的。判罚程序员与制造商又该如何量刑?

PS:秋凉了,艳阳还炎得起来么
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-29 14:34 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-29 14:28 发表
以目前群众的理科认知水平嘛,机器人的到底做到哪一步比较合理,是没个谱的。有人认为机器人需要做到零失误,有人认为机器人比人类低两个数量级可以放行,还有像艳阳这种认为机器人跟人类差不多就行。

现存刑法对机器人基本 ...

從財產和人命的價值上來看,當然是低於人類即可
比如低一半,那平均每天死10個人,馬上就會掉到5個,實打實的就是拯救了5個人的生命

其它的說法都是主觀說法,說要比人類低10倍,100倍,1000倍,都是不負責任的說法
100倍的根據是啥?除了滿足自己聖母心和口嗨外不負責任
純粹自己一個人拍腦袋的一種偽善說法,真要談到人命無價,寧願不要發展
按這個說詞,人類就不該開車,應該大家用手推車

QUOTE:
原帖由 乌鹊南飞3 于 2023-9-29 14:28 发表
现存刑法对机器人基本上没有威慑与惩戒的力量。判死刑是不是把硬盘格式化就行?判二十年是不是该编号关机就行?人类撞死人有保险,有车祸刑责,对马路杀手是有威慑力的,重复犯错的几率很低。如何制止机器人不再重复犯错?机器人有bug,或者中木马,重复犯错基本上是必然的。判罚程序员与制造商又该如何量刑?

首先賠錢肯定不是一個問題,假設AI出錯更低,勞動成本更低,那能拿出來投保或者理賠的錢只會更多
普遍的汽車用家既然在人類駕駛時期能賠得起,到了AI時期當然更賠得起

能有爭議的只是一個刑責的問題
拿故意,或者刻意放任(比如喝酒,吃禁藥,鬥氣車,故意撞人)的意外來說,AI汽車沒有
非故意,或者刻意的意外,又要判刑責的其實少之又少

那回到一開始的問題

汽車對行人,或者別的司機這麼危險,為什麼人類同意讓汽車在路上跑呢?
答案是他的生產力太香了,香到了社會願意讓一部分人拿命來換

那又怎麼警剔別人要盡量小心呢
就是駕車者一方必須找一個人類來擔保,若發生事故了,另行處罰司機,所以大家感情上能接受
事先預防來說就是增大駕照難度,這點顯然只是做做樣子,所有的司機皆在不具備100%不出意外的實力以前就能上路了

那既然汽車採用的是"事後處罰",而不是"事先預防"的路子
那AI汽車同理只要找一個人來擔保就行了

[ 本帖最后由 橙炎陽 于 2023-9-29 14:43 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-29 17:39 资料 个人空间 短消息 只看该作者
回复 #23 橙炎陽 的帖子

能高100倍为什么不做?能做到车祸率降低100倍为什么只降低一点点?拯救100个生命比只拯救1个生命好很多吧

空对空没什么意思,说个具体例子。机器人驾驶出现一个40km/h右转,遇到行人过人行道撞死人的bug。等车商定位出bug的时候,已经撞死了50个路人,艳阳说说担保人该判刑多少年?

[ 本帖最后由 乌鹊南飞3 于 2023-9-29 17:43 编辑 ]
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-29 22:37 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-29 17:39 发表
能高100倍为什么不做?能做到车祸率降低100倍为什么只降低一点点?拯救100个生命比只拯救1个生命好很多吧

空对空没什么意思,说个具体例子。机器人驾驶出现一个40km/h右转,遇到行人过人行道撞死人的bug。等车商定位出bug的 ...

因為人家不想做提高100倍,人家做到提高3倍5倍,就想先賺點小錢回攏資金,沒甚麼不好理解的
在商言商,人家拿出來的產品比現有產品好,就足證明其合格,你就得允許人家賣,你不想買可以不買,也可以號召大眾不買,但不能在一邊罵罵咧咧,這個我認為是常識
而這個"不能罵罵咧咧"無關人數多少,不是說你能拉到N個志同道合,你就有理了,你沒理的前提下,你拉1萬個人,也是沒理

你想有安全100倍的汽車,要麼你發明,要麼你投錢,要麼你呼籲市場眾疇一個,而不是去打擾別人賣汽車,或者罵人家車廠

=========

你這個具體假設的邏輯在那裡?
你是想說AI司機危害比人類司機更大還是甚麼
上限比人類高?因為它可以一直不知疲倦地一直撞人?人類容易撞累了停下來?還是說人類更有人性?人類看到同類被撞會手軟,AI不會?
如果你接受AI的攝像頭更多,更不知疲倦,更不容易有BUG,或者可以設計出更複雜的制動系統,你就不能假設他會造出遠超菜雞司機的奇葩事故

一般來說人類司機發生最大的安全事故傷亡大抵都在幾十人左右(比如大巴乘客之類的),如果說撞傷行人一般都在10人內,沒聽過事故會撞死大量的
(故意報復社會的不算)
那AI要上路理論上應該是要做到100%遠低於這個數量級才能被容許的
如果你說一個AI汽車會有個潛在撞死50人的可能性,那禁止它,我認為合情合理
但你說人類現今技術造不出一個阻止其大量撞死人的系統,我表示很蒙B,您老人家不會又搞一些高科技理論來耍我吧?

初期如果真的不相信,那車上放個制動員就行了,雙保險,理論上車子是撞到物體電子即停的,你覺得要有帶人性的生物在更可靠,那再做一套機械系統,可以人為切斷電子數據,改手操
你總不能說連切換的系統也一起出BUG吧,那汽車有故障等以前是怎麼處理的

或者直接做一套機械制動系統嘛,碰撞後會彈出一個插銷把輪子抱死之類的,你總不能說機械系統會跟AI打配合吧

[ 本帖最后由 橙炎陽 于 2023-9-29 23:20 编辑 ]
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-29 22:42 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-29 17:39 发表
空对空没什么意思,说个具体例子。机器人驾驶出现一个40km/h右转,遇到行人过人行道撞死人的bug。等车商定位出bug的时候,已经撞死了50个路人,艳阳说说担保人该判刑多少年?

高速公路貨車翻車,或者大巴車直接衝水裡造成幾十人傷亡的案子也有過,當然50個太極端了
那如果司機是故意的,直接按危害公眾安全致人死亡處理
如果真不是故意的,那民事賠償完吊銷駕照就完事

那AI汽車理論上也應該同樣處理
你要問AI汽車動輒會撞死幾十人為什麼放它上路,那我只能回答你,傳統汽車上路人們就是這麼規定的
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-30 11:57 资料 个人空间 短消息 只看该作者
回复 #25 橙炎陽 的帖子

既然不想拯救人命,那么市场拒绝也很正常嘛。你不做,大家不买呗

一个月内,同一套系统不同城市以同样bug多次撞死人达50人。考虑如今的车流量,以你在#25楼所说的低3、5倍的事故率出现这种情况完全是正常的,甚至死亡数更高,不信你自己计算一下

撞死50个人光禁止就行?我问艳阳危害公共安全致人死亡判刑该判多少年?我看支持死刑的群众不会少。你提出的人类代驾会愿意接受判死刑?

[ 本帖最后由 乌鹊南飞3 于 2023-9-30 12:06 编辑 ]
顶部
性别:男-离线 乌鹊南飞3

中大夫

Rank: 13Rank: 13Rank: 13Rank: 13
组别 羽林都尉
级别 卫将军
好贴 4
功绩 101
帖子 6284
编号 60211
注册 2006-2-17
来自 四川


发表于 2023-9-30 12:04 资料 个人空间 短消息 只看该作者
回复 #26 橙炎陽 的帖子

传统汽车一个驾驶员撞死的人以个论,自己能掌控车子,几十个驾驶员出车祸才能撞死50个行人。坐牢判刑也是一群人坐牢。AI驾驶出一个bug,是代驾知晓并能掌控的?导致一群代驾进去坐牢,你认为他们会签这合同挣血酬?叫黑社会顶缸都招不够这么多替死鬼

[ 本帖最后由 乌鹊南飞3 于 2023-9-30 12:13 编辑 ]
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-30 16:03 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-30 12:04 发表
传统汽车一个驾驶员撞死的人以个论,自己能掌控车子,几十个驾驶员出车祸才能撞死50个行人。坐牢判刑也是一群人坐牢。AI驾驶出一个bug,是代驾知晓并能掌控的?导致一群代驾进去坐牢,你认为他们会签这合同挣血酬?叫黑社会顶缸 ...

1. 首先傳統汽車並不止按個論,十個以上也是見過的
比如大巴車剎車過熱之類的,直接從長鈄坡撞下山

=========

2. AI汽車現在在相當多國家是連上路的機會都沒有,也沒有撞死50人的事故發生,你怎麼知道會撞死50人?
還能基於假設來反對的話,那傳統汽車未上路前,當年要是隨便有個路人甲說傳統汽車如果有可能撞死500人,也可以乾脆禁了拉倒?
這個假設基於甚麼理據?

你如果說AI出BUG,會一直撞人而不自知,那設計一套本地的系統鎖死輪胎就好了
如果說本地的系統還是不夠,那就再設計一套機械系統

如果啥理據都不用有,那我也假設不久的將來有個菜鳥司機會極度不小心撞死500人,不如今天起把傳統汽車停了
把傳統餐廳也停了算了,我再預言會有個菜鳥廚師搞出大爆炸炸死500人
這麼用"假設"來入罪甚麼行當能保住呢?

你隨意找個商場,往門口一站
每天不管甚麼店新開張,你都能"假設"人家會發生某個意外,死亡人數高達幾百
按你這麼說誰都別開店開廠了,都該給你禁了完事

您這個就不屬於質疑,屬於大家編故事比賽

=========

3. 你說的"頂罪不義論"是有問題的
機械的制動員,或者監察人,使用人,及時切換手操和承擔機械失誤的責任並不是甚麼不道德的頂罪行為
而是應有之義,你不用講到車企像黑社會招人扛罪的口吻

每個人開車,用機械切割工具,或者用涉及燃氣的工具,都有檢查和隨時準備將傷害最小化的義務,做不到自己要受罰,這不是扛罪,而是家家有求的互利行為
所有人一起承擔這種義務社會才會更好的

如果車子有毛病開車的不用開車的人檢查,你家窗子生鏽了掉下街不關你的事
那社會會容易為了節省蠅頭小利而造成大量的公共安全隱患
反正省下的時間和錢是自己的,而對於公共的危險是別人的

按你的設想,如果所有物品,機械事故都該由原廠來背責任,那這就會是一個窗戶剩下0.5個重度生鏽合頁還在用,煤氣管皮薄到透明也沒人管的國度

[ 本帖最后由 橙炎陽 于 2023-9-30 17:00 编辑 ]
顶部
性别:未知-离线 橙炎陽

Rank: 11Rank: 11Rank: 11Rank: 11Rank: 11
组别 校尉
级别 征西将军
功绩 49
帖子 4870
编号 498420
注册 2014-2-19


发表于 2023-9-30 16:48 资料 文集 短消息 只看该作者


QUOTE:
原帖由 乌鹊南飞3 于 2023-9-30 11:57 发表

既然不想拯救人命,那么市场拒绝也很正常嘛。你不做,大家不买呗

一个月内,同一套系统不同城市以同样bug多次撞死人达50人。考虑如今的车流量,以你在#25楼所说的低3、5倍的事故率出现这种情况完全是正常的,甚至死亡数更高,不信你自己计算一下

撞死50个人光禁止就行?我问艳阳危害公共安全致人死亡判刑该判多少年?我看支持死刑的群众不会少。你提出的人类代驾会愿意接受判死刑?

不買當然沒問題,甚至號召公眾不買我都是尊重的,但是如果直接要求禁了,就是侵犯別人的權利了
我認為當今技術AI汽車不存在會動輒撞死50個人的可能性
倒過來說,如果真的存在會發生嚴重事故,動輒撞死50個人的意外發生,那直接要求用公權力禁止,那沒問題,你上面說的問題都對

但這麼一來,仍不算倫理問題,而是這個東西技術上太不安全,比人類司機差勁,所以不讓他上路
人類司機連10人以上的事故都非常罕見了,

所以綜上,用倫理憂慮之類的理由,還是不合理
要禁止與否,從技術角度進入討論是最好的

[ 本帖最后由 橙炎陽 于 2023-10-1 11:57 编辑 ]


顶部

正在浏览此帖的会员 - 共 1 人在线




当前时区 GMT+8, 现在时间是 2025-4-5 17:32
京ICP备2023018092号 轩辕春秋 2003-2023 www.xycq.org.cn

Powered by Discuz! 5.0.0 2001-2006 Comsenz Inc.
Processed in 0.018585 second(s), 8 queries , Gzip enabled

清除 Cookies - 联系我们 - 轩辕春秋 - Archiver - WAP