趣趣阁 通过搜索各大小说站为您自动抓取各类小说的最快更新供您阅读!

现在“人工智能+”早就不是啥新鲜词了,不管是手机里的智能推荐、商场里的人脸识别,还是工厂里的智能机器人,到处都能看到它的影子。但就像咱们用新家电得先搞懂安全按钮一样,“人工智能+”用得越广,背后藏着的风险和伦理问题就越不能忽视。接下来咱们就用大白话,把这些事儿拆解开说清楚,让大家一看就明白。

一、技术风险:AI也会“掉链子”,这三种问题最常见

咱们总觉得AI特别厉害,能算复杂数据、能写文案还能画画,但实际上它也会“犯迷糊”“带偏见”,甚至关键时刻“掉链子”。这部分说的技术风险,就是AI在技术层面容易出的岔子,其中最典型的就是算法偏见、模型幻觉和系统可靠性问题。

1.1 算法偏见:AI也会“看人下菜碟”,不是它故意的,是“学歪了”

先说说“算法偏见”,听着挺专业,其实就是AI在做判断的时候,会不自觉地偏向某一类人,或者对某一类人不友好。比如咱们平时用的招聘App,有些公司会用AI筛选简历,如果一开始给AI“喂”的简历里,大部分都是男性的优秀简历,AI就会误以为“男性更符合岗位要求”,之后再看到女性简历,可能就会不自觉地打低分——这就是典型的算法偏见。

为啥会这样?不是AI有“性别歧视”,而是它学习的“素材”有问题。AI就像个小学生,老师教啥它学啥,如果老师给的教材里本身就有偏向性,那学生学出来肯定也带偏。再比如贷款App,有些AI评估用户信用时,会参考用户的居住地,如果某个区域之前有过较多逾期记录,AI可能就会直接给这个区域的用户打低信用分,哪怕有些用户本身信用特别好,也会被“连累”。

这种偏见带来的麻烦可不小。找工作的女性可能因为AI偏见错失机会,信用好的人可能因为AI偏见贷不到款,甚至在司法领域,如果用AI辅助判断案件,偏见还可能影响判决公平性。所以算法偏见不是小事,得提前发现、提前改。

1.2 模型幻觉:AI会“瞎编乱造”,还说得有模有样

再说说“模型幻觉”,这个更有意思,简单说就是AI会“一本正经地胡说八道”。比如你问AI“某本不存在的书的作者是谁”,它不会说“我不知道”,反而会编一个名字,还会瞎编这本书的出版时间、主要内容,甚至引用里面的“名言”,让你误以为真有这本书。

为啥会出现幻觉?因为AI的核心是“预测下一个字\/词该放啥”,它不关心内容是不是真的。比如你让AI写一篇关于“古代某座虚构城市的历史”,AI会把它学过的所有“古代城市”“历史事件”的信息拼在一起,凑出一篇逻辑通顺但完全虚构的内容。就像咱们做梦的时候,会把现实里的片段拼在一起,形成一个假的场景,AI的幻觉差不多就是这个意思。

这种幻觉的危害也挺大。如果医生用AI查医学资料,AI编一个假的治疗方案,可能会耽误病人;如果学生用AI写论文,AI编一些假的引用文献,论文就会出大问题。所以现在用AI查信息,尤其是重要信息,一定要多核对,不能全信。

1.3 系统可靠性:AI也会“死机”“出错”,关键时刻靠不住

最后是“系统可靠性”问题,简单说就是AI系统可能会突然出故障,或者在复杂场景下出错。比如自动驾驶汽车,平时在空旷的马路上跑得挺好,但遇到暴雨、大雾天气,或者路上突然出现一个塑料袋、一只小动物,AI可能就会判断失误,要么突然刹车,要么没及时避让,容易引发事故。

再比如银行的AI转账系统,如果突然遇到网络波动,或者系统里的某个程序出了bug,可能会出现“转账成功但对方没收到”“重复转账”等问题,给用户带来损失。还有咱们用的智能客服,平时能解答一些简单问题,但遇到复杂的投诉、咨询,比如“账户被盗了该怎么办”“订单丢了怎么找回”,AI可能就会“答非所问”,或者直接把问题推给人工,要是人工客服又忙不过来,用户就会特别着急。

为啥AI系统会不可靠?一方面是技术本身的问题,比如AI对复杂环境的适应能力还不够强,遇到没见过的场景就容易“懵”;另一方面是人为因素,比如程序员在写代码的时候出了错,或者系统维护不到位,没有及时更新、修复漏洞。所以不管是用AI开车,还是用AI处理金融业务,都得留好“后手”,比如自动驾驶得有人类驾驶员随时接管,AI转账得有人工审核环节,不能完全依赖AI。

二、伦理挑战:AI不能只讲“技术”,还得讲“规矩”

除了技术层面的风险,“人工智能+”还会遇到一些伦理问题——简单说就是“AI该怎么做才对”“哪些事AI不能做”。比如AI能不能随便收集人的人脸信息?AI推荐内容的时候能不能只推用户喜欢的,让用户看不到其他信息?这些问题都没有绝对的答案,但需要咱们一起商量出“规矩”,不然就容易出乱子。这部分主要说三个核心伦理挑战:公平性、透明度和社会责任。

2.1 公平性:AI不能“欺负人”,得给所有人平等的机会

先说说“公平性”,其实和前面说的“算法偏见”有点像,但范围更广——不只是AI判断的时候不能有偏见,还要保证所有人都能平等地享受AI带来的好处,不能因为性别、年龄、肤色、收入、地区等因素,被AI“区别对待”。

比如现在很多地方用AI做教育辅导,发达地区的孩子能用到先进的AI学习系统,有个性化的学习计划、优质的课程资源;但偏远地区的孩子可能连基本的电脑、网络都没有,更别说用AI辅导学习了——这就是“AI教育公平”问题,相当于发达地区的孩子在学习上多了一个“帮手”,而偏远地区的孩子没有,差距可能会越来越大。

再比如AI医疗,大城市的医院能用AI辅助诊断癌症、糖尿病,通过分析ct影像、血液数据,更早发现病情;但小城市、农村的医院可能没有这样的AI系统,医生只能靠经验诊断,有些早期疾病可能就会被漏诊、误诊——这就是“AI医疗公平”问题,相当于大城市的人能更早得到治疗,而小城市、农村的人可能会耽误病情。

还有AI就业,现在很多行业用AI替代人工,比如工厂里的流水线工人、超市里的收银员、银行里的柜员,这些岗位越来越少,很多人会失业。但这些失业的人里,很多都是学历不高、没有其他技能的人,他们很难再找到新工作;而懂AI、会操作AI的人,却能找到高薪工作——这就是“AI就业公平”问题,AI让一部分人更吃香,却让另一部分人没了饭碗。

所以AI的公平性不是小事,不能让AI只服务于少数人,得想办法让所有人都能用上AI、受益于AI。比如政府可以给偏远地区捐AI学习设备、建网络,让农村孩子也能用上AI辅导;医院可以推广AI诊断系统,让小城市的医生也能借助AI看病;企业可以给失业的人做AI技能培训,帮他们找到新工作。

2.2 透明度:AI做决定得“说清楚”,不能“暗箱操作”

再说说“透明度”,简单说就是“AI为啥做这个决定,得让人看明白”。比如你申请贷款,AI说“你不符合条件,拒绝贷款”,你肯定想知道“为啥拒绝我?是因为我收入低,还是因为我有过逾期记录?”如果AI不告诉你原因,只给一个结果,你就会觉得不公平,甚至怀疑AI是不是有问题——这就是透明度不够的问题。

再比如你用AI推荐视频,AI总给你推同一类内容,比如你看了一个搞笑视频,之后全是搞笑视频,你想知道“AI为啥只给我推这个?能不能给我推点别的?”如果AI不解释推荐逻辑,你就会觉得被“困住”了,看不到其他类型的内容——这也是透明度不够的问题。

还有司法领域,如果AI辅助法官判案,比如给某个案件的被告人打分,判断他“再犯罪的可能性”,如果AI说“可能性很高,建议重判”,法官和被告人都得知道“AI是怎么算出来的?参考了哪些因素?是被告人的年龄、学历,还是之前的犯罪记录?”如果AI不说明白,这个判决就很难让人信服。

为啥AI的透明度这么难实现?因为很多AI模型是“黑箱”——就像一个魔术盒,你把数据放进去,它就会输出结果,但你不知道盒子里到底发生了什么。比如chatGpt这样的大模型,它的计算过程非常复杂,就算是开发它的程序员,也未必能说清楚它为啥会生成某一句话。

但透明度又很重要,不然大家就会不信任AI。所以现在很多国家都在要求AI企业“打开黑箱”,比如贷款AI得告诉用户拒绝贷款的具体原因,推荐AI得让用户知道推荐逻辑,司法AI得说明判断依据。虽然很难完全做到,但至少得往这个方向努力。

2.3 社会责任:AI不能只“赚钱”,还得“担责任”

最后是“社会责任”,简单说就是AI企业不能只想着用AI赚钱,还得考虑AI对社会的影响,比如AI会不会危害隐私、会不会破坏环境、会不会影响社会稳定。

先说说隐私问题,这是大家最关心的。现在很多AI产品都要收集用户数据,比如人脸识别需要收集人脸信息,智能手表需要收集健康数据,AI推荐需要收集浏览记录。如果企业把这些数据随便存着、或者卖给其他公司,用户的隐私就会被泄露。比如有人用AI摄像头偷偷拍别人的人脸,然后做成“人脸库”卖给诈骗分子;有人把用户的健康数据卖给保险公司,保险公司就会拒绝给身体不好的人投保——这些都是AI企业没尽到社会责任,只想着赚钱,不管用户的隐私安全。

再说说环境问题,AI其实是“耗电大户”。训练一个大模型,比如Gpt-3,需要用到很多服务器,这些服务器24小时运转,消耗的电量相当于几百户家庭一年的用电量,还会排放大量二氧化碳,污染环境。如果AI企业只想着把模型做得更大、更厉害,不考虑节能减排,就会给环境带来很大压力——这也是社会责任的一部分,AI发展不能以破坏环境为代价。

还有社会稳定问题,比如AI能生成“深度伪造”内容,就是用AI做假视频、假音频,比如把某个人的脸换到另一个人身上,制作出“假新闻”“假绯闻”。如果有人用这个技术造谣、诽谤,比如伪造某个明星的负面视频,或者伪造某个官员的不当言论,很容易引发社会恐慌、破坏社会信任——这时候AI企业就得担起责任,比如开发识别“深度伪造”的技术,阻止假内容传播,而不是放任不管。

所以AI不是“法外之地”,企业用AI赚钱的同时,必须承担起社会责任,比如保护用户隐私、节能减排、阻止AI被用来做坏事。如果企业只讲利益、不讲责任,AI早晚都会被大家反感、抵制。

三、全球伦理治理:各国对AI的“规矩”不一样,得慢慢商量着来

“人工智能+”是全球性的技术,比如你用的AI软件可能是美国公司开发的,你买的AI设备可能是日本生产的,你刷的AI视频可能是印度网友上传的。但不同国家的文化、法律、社会情况不一样,对AI的“规矩”也不一样——比如有的国家允许用AI做自动驾驶,有的国家不允许;有的国家严格限制AI收集人脸信息,有的国家则比较宽松。这就需要各国一起商量,搞“全球伦理治理”,既要尊重各国的差异,又要达成一些共同的“底线”,不然AI在全球范围内用起来就会乱套。这部分主要说两个点:国际共识和区域监管政策的差异。

3.1 国际共识:各国都同意的“AI规矩”,比如不能用AI杀人

虽然各国对AI的监管不一样,但在一些关键问题上,大家还是能达成共识的——简单说就是“有些事AI绝对不能做”,不管哪个国家都得遵守。

最典型的就是“AI不能用于军事危害人类”。比如不能开发“自主杀人机器人”——就是不需要人类控制,自己就能识别目标、开枪杀人的机器人。如果这种AI被用于战争,后果不堪设想,可能会造成大量无辜平民死亡,甚至引发世界大战。所以现在联合国和很多国家都在呼吁“禁止开发自主杀人机器人”,这就是一个重要的国际共识。

再比如“AI不能歧视人类”。不管是哪个国家,都不能用AI搞种族歧视、性别歧视、宗教歧视。比如不能开发“只服务于白人”的AI,不能开发“歧视女性就业”的AI,这也是各国都认可的共识。因为歧视会引发社会矛盾,不管在哪个国家,都不利于社会稳定。

还有“AI要保护用户隐私”。虽然各国对隐私保护的严格程度不一样,但都同意“AI不能随便收集、泄露用户隐私”。比如不能用AI偷偷拍别人的隐私视频,不能把用户的身份证号、银行卡号随便卖给别人,这也是一个基本共识。因为隐私是人类的基本权利,不管在哪个国家,大家都不希望自己的隐私被泄露。

另外,“AI要保证安全可靠”也是一个共识。不管是用AI开车、用AI做手术,还是用AI处理金融业务,都得保证AI不会出故障、不会出错,不然会给人类带来损失。比如自动驾驶汽车必须经过严格的安全测试才能上路,AI手术机器人必须有备用系统,防止突然出故障——这些都是各国都认可的安全底线。

这些国际共识就像“全球通用的AI交通规则”,不管你是哪个国家的AI产品,都得遵守这些规则,不然就会被全世界抵制。现在联合国、欧盟、美国、中国等都在积极参与国际共识的制定,就是为了让AI在全球范围内安全、有序地发展。

3.2 区域监管政策的差异:有的国家管得严,有的国家管得松,各有各的考虑

虽然有国际共识,但不同区域、不同国家的AI监管政策还是有很大差异——这不是因为有的国家“不讲理”,而是因为各国的情况不一样,比如文化传统、法律体系、技术发展水平都不同,所以对AI的监管重点也不一样。咱们主要说说几个有代表性的区域:欧盟、美国、中国,看看它们的监管政策有啥不一样。

3.2.1 欧盟:管得最严,把“伦理”放在第一位

欧盟对AI的监管是出了名的严格,核心思路是“先定规矩,再让AI发展”,尤其看重AI的伦理和安全。2024年欧盟出台了《人工智能法案》,这是全球第一个全面的AI监管法律,里面把AI分成了“四个风险等级”,不同等级的AI管得不一样:

- 最高风险的AI:直接禁止,比如“自主杀人机器人”“用AI操纵人的行为”(比如用AI搞政治洗脑)“用AI歧视特定人群”(比如用AI筛选租客时歧视外国人),这些AI不管有多厉害,都不能在欧盟用。

- 高风险的AI:必须经过严格审核才能用,比如AI医疗设备(比如AI手术机器人)、AI教育软件(比如给学生打分的AI)、AI招聘系统、自动驾驶汽车。这些AI在上市前,必须证明自己“安全、公平、透明”,还要有专门的机构审核,审核通过了才能用。

- 中风险的AI:需要披露信息,比如AI推荐系统(比如视频App的推荐AI)、AI聊天机器人(比如chatGpt)。这些AI不需要审核,但必须告诉用户“我是AI”,还要说明推荐逻辑、生成内容的依据,不能让用户误以为是人类做的。

- 低风险的AI:基本不管,比如手机里的智能闹钟、智能计算器,这些AI对人类没什么危害,所以欧盟不怎么管。

欧盟为啥管这么严?因为欧盟特别看重“人权”和“社会公平”,担心AI会侵犯人权(比如隐私、平等权),破坏社会公平。比如之前有欧盟国家发现,有些AI招聘系统歧视女性,所以欧盟就规定AI招聘系统必须经过公平性审核才能用。虽然严,但能最大程度保护用户的权益,不过也有一些AI企业觉得“太麻烦”,不愿意在欧盟开展业务——这就是严监管的两面性。

3.2.2 美国:管得“灵活”,既想保护创新,又想控制风险

美国对AI的监管和欧盟不一样,核心思路是“先让AI发展起来,再根据问题定规矩”,既不想因为监管太严耽误AI创新(毕竟美国有很多大AI公司,比如谷歌、微软、openAI),又不想让AI出大问题。

美国没有像欧盟那样出台统一的AI法律,而是让不同的部门根据自己的领域制定监管规则。比如:

- 医疗领域:美国食品药品监督管理局(FdA)会监管AI医疗设备,比如AI诊断软件必须证明自己有效、安全才能上市,和欧盟的高风险AI监管有点像。

- 金融领域:美国证券交易委员会(SEc)会监管AI金融产品,比如AI炒股软件、AI贷款系统,防止这些AI误导用户、引发金融风险。

- 隐私领域:美国各州有自己的隐私法,比如加州的《消费者隐私法案》,规定AI企业收集用户数据必须经过用户同意,不能随便泄露。

另外,美国特别看重“AI的国家安全”,比如禁止美国的AI公司把先进的AI技术卖给其他国家(尤其是可能威胁美国安全的国家),防止这些技术被用来制造武器、破坏美国的网络安全。比如美国之前就对openAI、谷歌等AI巨头提出要求,不许向中国等国家出口能用于军事、高端制造的AI模型和技术,担心这些技术被“滥用”。

美国这种“灵活监管”的好处是,AI企业有更多创新空间,不用被太多规则束缚,能快速推出新的AI产品——比如chatGpt、Gpt-4这些爆款AI,都是美国公司先做出来的。但坏处也很明显,因为没有统一的规则,不同部门的监管标准不一样,AI企业可能会“钻空子”,比如在医疗领域遵守FdA的规则,但在其他领域就放松要求,容易出现风险。而且美国对AI伦理的监管相对宽松,比如AI歧视、AI隐私泄露等问题,处理起来没有欧盟那么严格,用户权益可能得不到充分保护。

3.2.3 中国:监管“务实”,既要安全,又要促发展

咱们中国对AI的监管,走的是“务实路线”——既不像欧盟那么“严”到可能限制创新,也不像美国那么“散”到容易出漏洞,核心是“在安全的前提下,推动AI发展”,让AI能真正服务于经济、社会和民生。

这些年中国出台了不少AI监管政策,而且针对性很强,都是围绕大家最关心的领域来定规矩:

- 先说说AI安全,这是中国监管的重点。2024年中国出台了《生成式人工智能服务管理暂行办法》,明确要求生成式AI(比如chatGpt、文心一言这种能写文案、画画的AI)不能生成“违法违规内容”,比如不能生成谣言、暴力、色情内容,也不能生成危害国家安全的内容。而且AI企业在上线产品前,必须对生成的内容进行审核,要是出了问题,企业得担责任。比如之前有个AI聊天机器人,用户问它“怎么制造危险物品”,它竟然给出了步骤,后来这个AI就被下架整改了——这就是中国对AI安全的严格把控。

- 再说说隐私保护,这也是中国监管的核心。2021年中国出台了《个人信息保护法》,明确规定AI企业收集用户数据必须“合法、正当、必要”,不能随便收集。比如人脸识别AI,只能在需要的场景下用(比如火车站安检、小区门禁),不能在商场、超市等地方随便装人脸识别摄像头;而且收集人脸信息前,必须明确告诉用户“要收集你的人脸,用来做什么”,还要得到用户同意。如果企业偷偷收集人脸信息,会被重罚——之前就有一家连锁超市,在门店装了人脸识别摄像头,没告诉用户,被罚款了50万元。

- 还有AI赋能实体经济,中国监管不仅“管风险”,还“促发展”。比如政府鼓励AI企业把技术用到制造业、农业、医疗、教育等领域,比如用AI优化工厂生产线,提高生产效率;用AI监测农田的病虫害,帮助农民增产;用AI辅助医生诊断,让偏远地区的人也能看上“好医生”。为了支持这些方向,政府还会给AI企业提供补贴、税收优惠,比如有些地方对AI医疗企业,会减免3年的企业所得税,鼓励它们研发更多好产品。

中国这种“务实监管”的好处很明显:一方面,能守住安全底线,防止AI出现违法违规、泄露隐私等问题,保护用户和社会的利益;另一方面,能给AI企业足够的发展空间,让AI技术真正落地到实体经济中,而不是“只停留在实验室里”。比如现在中国的AI制造业、AI医疗都发展得很快,既带动了经济,又给老百姓带来了实惠。

3.3 全球伦理治理的难点:差异难统一,但合作是趋势

虽然各国都在推进AI监管,但全球伦理治理还是有很多难点——最核心的就是“差异难统一”。比如欧盟觉得“AI伦理比创新重要”,美国觉得“创新比伦理监管重要”,中国觉得“安全和发展要平衡”,大家的优先级不一样,想制定一套“全球通用的AI规则”特别难。

再比如,有些发展中国家的AI技术还很落后,它们更关心“怎么用AI发展经济、改善民生”,比如用AI解决贫困、疾病问题,对“AI伦理监管”的需求没那么迫切;而发达国家的AI技术已经很先进,它们更关心“怎么防止AI滥用、保护人权”,比如防止AI歧视、泄露隐私。双方的诉求不一样,很难达成一致。

还有,AI涉及“国家利益”,比如AI技术能用于军事、高端制造、网络安全,这些都是关系到国家竞争力的领域。有些国家担心,要是同意了统一的全球规则,可能会限制自己的AI发展,影响国家利益,所以不愿意轻易妥协。比如美国就不愿意接受欧盟那种严格的监管规则,担心会影响美国AI企业的竞争力。

但即便有这么多难点,“全球合作”还是大趋势。因为AI的风险是全球性的——比如AI生成的假新闻,能通过互联网快速传到全世界,引发全球恐慌;AI网络攻击,能攻击其他国家的电网、银行系统,影响全球安全。这些问题靠一个国家根本解决不了,必须各国一起合作。

比如现在联合国已经成立了“人工智能咨询机构”,让各国专家一起讨论AI伦理问题;中国、美国、欧盟也经常召开AI对话会议,交流监管经验;还有一些国际组织,比如国际标准化组织(ISo),正在制定AI安全、AI公平性的国际标准,让各国的AI产品能“互联互通、互相认可”。

虽然这个过程会很慢,但只要各国都愿意放下部分分歧,朝着“安全、公平、负责任的AI发展”这个目标努力,早晚能形成一套大家都能接受的全球伦理治理体系。

四、总结:AI是“工具”,用好它的关键在“人”

说了这么多“人工智能+”的风险和伦理问题,可能有人会问:“AI这么多问题,是不是不用最好?”其实不是这样的——AI本身是个好工具,就像汽车一样,汽车会有交通事故风险,但我们不会因为有风险就不用汽车,而是会制定交通规则、安装安全带、完善道路设施,让汽车更安全、更有用。AI也是一样,我们不用害怕它的风险,而是要通过“风险管控”和“伦理规范”,让它朝着好的方向发展。

简单来说,要做好这三件事:

第一,技术层面要“补漏洞”:针对算法偏见,要给AI“喂”更公平的数据,比如招聘AI的训练数据里,要包含足够多的女性简历、不同学历的简历;针对模型幻觉,要开发“事实核查”技术,让AI生成内容前先核对真假;针对系统可靠性,要多做测试,比如自动驾驶汽车要在暴雨、大雾等复杂场景下反复测试,确保不会出故障。

第二,伦理层面要“定规矩”:企业要承担起责任,比如不随便收集用户隐私、不开发危害社会的AI产品;政府要出台明确的规则,比如哪些AI能做、哪些不能做,出了问题怎么罚;我们每个人也要有“AI伦理意识”,比如不滥用AI生成假内容、不随便泄露自己的个人信息给AI产品。

第三,全球层面要“多合作”:各国要多交流、多商量,比如分享AI监管经验、一起制定国际标准;发达国家要帮助发展中国家发展AI技术,比如给它们提供AI设备、培训AI人才,让所有人都能享受AI带来的好处,而不是只有少数国家受益。

最后想说的是,AI的未来不是由技术决定的,而是由我们人类决定的。如果我们能做好风险管控和伦理规范,AI就能成为我们的“好帮手”——帮我们看病、帮我们学习、帮我们工作,让生活更美好;但如果我们不管不顾,任由AI的风险和伦理问题发展,AI可能会给我们带来麻烦。所以,不管是AI企业、政府,还是我们每个人,都有责任把AI用好,让它真正服务于人类,而不是反过来危害人类。

趣趣阁推荐阅读:至强龙尊叶辰萧初然老公狠坏,狠强势!寂灭天尊玄天龙尊内天眼手握十大空间,神医狂妃可逆天天价宠儿:霸道总裁宠妻记化身圣血蛇族,开局送软萌萝莉绝世帝神叶云辰萧妍然刑名女神探万灵仙族不负韶华谁说小皇叔要绝后?我两年生五崽炎武战神五年后:她带五个缩小版王爷回归凡人修仙之我有一樽炼丹鼎机智笨探造物主被捕之后从异色瓦斯弹开始,成为毒系天王化仙神算风水师万古神帝东北乡女匪事我家少爷回家之后火爆全城大小姐来自地狱,夜夜有鬼来敲门火葬场女工日记(2)野路子出马仙我,食人魔重生之不负韶华凡人修仙,从星光开始聂先生攻婚日常我即天意星莲世界之本源梦生穿越后,我用美食拯救幼儿园极致问道星尘之誓太荒吞天诀柳无邪梦幻西游:我押镖捉鬼威震三界穿越到古代的我混的风生水起四合院:万兴邦的逆袭时代带房穿越,我教全国百姓种田千夜追凶:碰触尸体就能锁定凶手女人三十:离婚后我重获新生吾为元始大天尊大穿越时代修仙:开局是个瞎眼乞丐诸天:从被强制绑定开始抄家流放,搬空王府去逃荒四合院:开局就送秦淮茹有家寿衣店
趣趣阁搜藏榜:四合院:开局设计坑贾家阴棒梗全洪荒都知道魔祖在闹离婚.快穿喜当妈后,炮灰她总遇病娇!嗷呜,今天也要揪揪夫君绒绒兽耳海贼王之我是革命军携空间三系统重生八零后逆袭人生玄学大佬下山后,真千金惊艳全球我捡到了一只水手服幽灵四合院,满院都是我下的崽明月清风两相宜手握剧本我怕谁执念深深宿主她又在生子小世界里捡对象某美漫的超级进化五十五,向春行从汉末开始的封神之旅乱杀:你跟我一魔术师玩牌?断亲后,乱世囤粮养成皇级军队霍先生,这次真有了!诉云人非晓星稀主神腿长腰窄还风骚,乖,别太野树洞自救指南王爷,失踪的小郡主在乡下种田呢一吻成婚:抱得甜妻归位面祭坛真假千金之当大小姐还是有难度神凰赋觉醒骷髅从泰拉瑞亚开始闯荡万界敢提分手试试相见欢:不负相思意春庭恨穿越不穿补丁裤,我在民国当首富当个俗人诡语神探霍格沃兹之非典型斯莱特林重生异世界之去尼玛的奴隶海贼之开局我家没了玄灵道圣宝可梦:我的精灵降维打击爱恨三界间聂先生攻婚日常快穿:你让一个厨子拯救世界一千零一个诡异夜天降孕妻,老公你别跑呀!来自旧时光凹凸世界之坠落黎明我的绝美鬼夫快穿:怎么办,男主又又又吃醋了?平明拂剑任我去
趣趣阁最新小说:落寞千金终成凰大白话聊透人工智能男主男配又看上普女啦!一睁眼,成了资产过亿的富婆!熊出没之森林生存大挑战加入寰宇巨企的我太爽了重生替嫁:千亿妈咪携四宝炸全球心剑破道:独尊九天毒煞七玄医妃携系统,废柴世子宠上天冷面大佬的致命偏宠盗墓:穿越盗笔当神仙魔修兵王共闯恐游,双向救赎和亲公主靠吃瓜为生我的通透活法轨怨:打工夫妻的异地生活觉醒指南从一碗粥到一朵花成语认知词典:解锁人生底层算法我的治愈游戏成真了宝可梦:开局毒贝比成就大师遇见陈宇白蛇:小青,小白:我有玄蛇弟弟重生孤鸿子,我在峨眉练神功神探驸马从选择钟晓芹开始获得老婆的能力星雨落寒江你惹她干嘛?她敢徒手揍阴天子四合院:淮茹晓娥,我全都要!综影视:死后入编角色扮演部短篇合集系列3原来我是情劫啊求竹马们贴贴,我有皮肤饥渴症电力设计院的日常锦衣卫:从小捕快杀到锦衣卫头子穿成檀健次低谷期的路人甲乙丙穿越之女尊我左拥右抱港综:左零右火,雷公助我南波万的无限流游戏遭了!我男朋友好像是个恋爱脑!大胤夜巡司快穿:心机恶女上位实录凤栖深宫:废后归来明日方舟,全员魔法少女?!说书人还是救世主?末法贷仙三角洲求生,开局招募年轻德穆兰江山劫,揽月明绿茶病美人私底下烟酒都来啊入间同学入魔了之没有存在感就会缠娇鸾