图片来源:哥伦比亚广播公司(CBS)报道截图
“不用就是傻瓜”
2022年8月10日,特朗普现身位于曼哈顿的纽约州总检察长办公室,在宣誓后接受了大约4个小时的取证。CBS公布的这段视频时长大约有37分钟,包含部分证词记录。
在会议室里,特朗普身着深蓝色西装、红色领带,佩戴美国国旗徽章,坐在摄像机前。他首先“礼貌”回答了纽约州总检察长詹乐霞提出的开场问题。
当詹乐霞问他是否熟悉作证规则时,他回答说“是的”。
图为特朗普作证视频截图。图片来源:哥伦比亚广播公司(CBS)视频截图CBS称,初步提问结束后,特朗普有机会宣读一份准备好的声明。他以一句外界颇为熟悉的话语开场:“这是我们国家历史上最大的政治迫害。”
他还称詹乐霞是“一个叛逆且失控的检察官”,并指责其办公室调查他的财务行为调查带有政治动机。
特朗普在视频中还说,“整件事非常不公平。任何在我这样处境的、不援引第五修正案的人都是傻瓜,绝对的傻瓜。”根据美国宪法第五修正案的规定,任何人不得被迫自证其罪。
他补充说,根据律师的建议,“依照美国宪法赋予每个公民的权利和特权,我恭敬地拒绝回答提出的问题。”
“这将是我对任何进一步问题的回答。”
“同样的答案”说了400多次……
随着质询正式开始,特朗普不停援引美国宪法第五修正案进行回答,并持续大约4个小时。
美国司法部长办公室高级执法律师凯文•华莱士透露称,这次作证“很冗长”,而且“显然,我们不同意其中的很多描述”。
华莱士甚至不得不告诉特朗普,他可以说“同样的答案(Same answer)”,以“加快速度”。
根据纽约总检察长提交给法庭的文件,在完整的质询过程中,特朗普不仅照着这样做,且次数多达400余次。
在其中一个提问环节,华莱士询问特朗普自2011年以来每年提交的财务状况报表状况。
“文件所载的估值反映了虚假和误导性的估值报表。对吗?”华莱士问。
“同样的答案(Same answer)。”特朗普回答。
华莱士又问,“知道”这些文件“包含虚假和误导性陈述”吗?
“同样的答案(Same answer)。”特朗普回答。
美媒注意到,在回答问题的过程中,特朗普双臂交叉、身体前倾,似乎还研究起了华莱士交给他的财务文件。
当华莱士抛出有关特朗普集团前首席财务官魏塞尔贝格和现任公司主计长杰弗里•麦康尼的问题时,得到的答案仍一样。
“至少从2005年至今,你们与魏塞尔贝格和麦康尼一直有项持续的协议,他们将在财务状况报表中包括基于虚假和误导性假设的估值,作为夸大报告价值的手段。对吗?”华莱士问道。
特朗普再次回答,“同样的答案(Same answer)。”
据CBS报道,作证结束后,特朗普发表了一份公开声明,称他行使了宪法第五修正案的权利,拒绝作答。特朗普的一名律师则拒绝对公布的这段视频置评。
图为特朗普作证视频截图。图片来源:哥伦比亚广播公司(CBS)视频截图“无止境的政治迫害”
多年来,纽约曼哈顿地方检察官办公室对特朗普及其家族房地产业务展开了一系列调查。
民主党人詹乐霞要求法院禁止特朗普及其三个成年子女经营任何一家总部位于纽约的公司,并寻求对他们处以至少2.5亿美元的罚款。审判日期在10月2日。
此前在1月,特朗普集团则已因“实施一项长达15年的税务诈骗”被判处罚金160万美元。此外,特朗普集团前首席财务官魏塞尔贝格还被判刑五个月,罪名是参与税务欺诈计划。
特朗普集团否认有任何过错,并表示将提起上诉。
特朗普集团在声明中称,“这些出于政治动机的检察官将不惜一切代价抓捕特朗普,并延续从他就任总统之日开始的无止境的政治迫害。”
目前,特朗普还被牵扯进多项刑事和民事调查,涉及干预2020年总统选举计票、机密文件处理不当等。特朗普频繁抨击这些调查受政治驱使。
当我们可以享受人工智能的服务,人类能变懒吗?****** 中新网北京12月10日电 “我对人工智能持非常乐观的态度,让人工智能服务好人类,符合我们所有人的共同利益。我们要让其变为现实。” 12月9日,国际人工智能协会前主席约兰达·吉尔在2022人工智能合作与治理国际论坛的主题论坛“人工智能引领韧性治理与未来科技”上如是表示。 2022人工智能合作与治理国际论坛由清华大学主办、清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴。 国际人工智能协会前主席约兰达·吉尔作视频发言。主办方供图在约兰达·吉尔看来,当前人工智能技术的发展,将提升人类的科研效率。 “现在的科研实验室,90%的时间都是花在了重复性、枯燥的、繁琐的工作,这样的业务模式并不好。” 她指出,科学的效率不应该这么低。“我们必须相信,如果我们能够把科学家在实验室中的枯燥工作,转化为自动化,人类就能够把更多时间花在有趣的事情上。” 这同时意味着,对人类的要求也提高了。 世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克作视频发言。主办方供图世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克就认为,“当我们看到AI发展能够成为未来科学家的时候、能够成为越来越有用工具的时候,人如果要过一个有意义、有价值的一生,其实对我们的科学知识水平、道德水平提出了更高的要求。” 他直言,因为人类要去驾驭一个更有能力、更强大的的工具。“并不是说有了强大的工具,人就可以变得懒惰,人应该变得更聪明。” 联合国助理秘书长、联合国开发计划署政策与方案支助局局长徐浩良指出,“我们在呼吁制定国际标准,确保人工智能具有包容性、问责性和韧性。很多人提到人工智能的伦理标准等等,我们认为包容性在政策讨论及实践中都至关重要,所以社会要能够理解其收益和风险。” 显然,人类在获得人工智能“服务”的同时,如何防范由此带来的“风险”同样应引起关注。 约兰达·吉尔直言,安全系统的建立对于人类和设施的安全非常重要。“如果没有人工操作员的话,它是无法保证安全的。但现在有很多人工智能在安全方面的系统在没有得到足够提前训练的情况下,就被部署出去了,这是非常值得关切的。” 美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江作视频发言。主办方供图美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江提出,人类在设计人工智能系统时,要考虑到人工智能系统本身知道自己需要由人类介入,这是非常重要的一点。(完)
|