文章目录:
- 1、为什么新研究会暗示乌克兰停电事件与网络犯罪分子有关?
- 2、哪些原因会导致数据中心断网
- 3、印度孟买大停电被美媒“甩锅”中国,如何看待他们的“无知”?
- 4、一部电影,几个黑客控制整个美国,导致交通瘫痪,电力关闭,所有行业受影响,有个警察和黑客恢复
- 5、有一部美国灾难电影写的是一个叫克莱斯的电力公司有漏洞 被黑客攻击全城停电第二天马上要来超级龙卷风?
- 6、大范围停电的原因是有什么?
为什么新研究会暗示乌克兰停电事件与网络犯罪分子有关?
虽然这起网络攻击引发了一系列问题,但却没有给出明确的答案:首先,这次网络攻击的真正动机是什么?第二,为什么一个恶意软件能够如此强大,它可以瞬间让整个城市进入黑暗之中,而一个小时后工厂的工人只需要打开断路器就能修复?
对此,来自工业控制系统网络安全公司Dragos的研究人员近日发布了一篇论文,他们在文中重建了2016年乌克兰断电的时间线,希望能为寻找上述问题的答案获得一些启发。在这篇题为《CRASHOVERRIDE: Reassessing the 2016 Ukraine Electric Power Event as a Protection-Focused Attack》的文章中,研究团队梳理了恶意软件的代码并重新访问了Ukrenergo的网络日志。他们得出的结论是,有证据表明,黑客的意图是造成更大强度的物理破坏,如果没有几个月也会将停电时间延长到数周甚至可能危及到现场工厂工人的生命。如果是这样的话,那么攻击基辅电力供应的恶意软件将只是另外两种恶意代码--Stuxnet和Triton的其中一种,这两种曾分别攻击过伊朗和沙特阿拉伯。
更具体一点说,Joe和Dragos给出的理论暗示了黑客利用Crash Override发送自动脉冲来触发断路器进而利用由西门子生产的Siprotec保护继电器的一个已知漏洞。尽管在2015年发布了一个修复上述漏洞的安全补丁,但乌克兰的许多电网站并没有更新它们的系统,这就位黑客们打开了一扇门,他们只需要发出一个电脉冲就能让安全继电器在休眠状态下失效。
为了搞明白这点,Dragos搜索了Ukrenergo的日志并将它所发现的信息的原始线程联系起来。他们第一次重构了黑客的操作方式,具体如下:首先,黑客部署了Crash Override;然后他们用它来处罚基辅北部一个电网站的每一个断路器进而导致大规模停电;一个小时后,他们发射了一个雨刷组件从而使发射站的电脑无法工作并阻止了对发射站数字系统的监控;死后,黑客破坏了该电站的4个Siprotec保护继电器,从而使电站容易受到危险高频率电力的影响。
事实上,这一事件并没有持续到最后。虽然Dragos无法找到黑客计划失败的原因,但它怀疑黑客的某些网络配置错误或现场工作人员在发现正在休眠的Siprotec继电器时做出的快速反应可能是挽救局面的原因。
哪些原因会导致数据中心断网
断网类型一:系统故障
典型事件1:亚马逊AWS平安夜断网
故障原因:弹性负载均衡服务故障
2012年12月24日,刚刚过去的圣诞节平安夜,亚马逊并没有让他们的客户过得太平安。亚马逊AWS位于美国东部1区的数据中心发生故障,其弹性负载均衡服务(Elastic Load Balancing Service)中断,导致Netflix和Heroku等网站受到影响。其中,Heroku在之前的AWS美国东部区域服务故障中也受到过影响。不过,有些巧合的事情是Netflix的竞争对手,亚马逊自己的业务Amazon Prime Instant Video并未因为这个故障而受到影响。
12月24日,亚马逊AWS中断服务事件不是第一次,当然也绝非最后一次。
2012年10月22日,亚马逊位于北维吉尼亚的网络服务AWS也中断过一次。其原因与上次相似。事故影响了包括Reddit、Pinterest等知名大网站。中断影响了弹性魔豆服务,其后是弹性魔豆服务的控制台,关系数据库服务,弹性缓存,弹性计算云EC2,以及云搜索。这次事故让很多人认为,亚马逊是应该升级其北维尼吉亚数据中心的基础设施了。
2011年4月22日,亚马逊云数据中心服务器大面积宕机,这一事件被认为是亚马逊史上最为严重的云计算安全事件。由于亚马逊在北弗吉尼亚州的云计算中心宕机,包括回答服务Quora、新闻服务Reddit、Hootsuite和位置跟踪服务FourSquare在内的一些网站受到了影响。亚马逊官方报告中声称,此次事件是由于其EC2系统设计存在漏洞和设计缺陷,并且在不断修复这些已知的漏洞和缺陷来提高EC2(亚马逊ElasticComputeCloud服务)的竞争力。
2010年1月,几乎6万8千名的Salesforce.com用户经历了至少1个小时的宕机。Salesforce.com由于自身数据中心的"系统性错误",包括备份在内的全部服务发生了短暂瘫痪的情况。这也露出了Salesforce.com不愿公开的锁定策略:旗下的PaaS平台、Force.com不能在Salesforce.com之外使用。所以一旦Salesforce.com出现问题,Force.com同样会出现问题。所以服务发生较长时间中断,问题将变得很棘手。
断网诱因二:自然灾害
典型事件1:亚马逊北爱尔兰柏林数据中心宕机
故障原因:闪电击中柏林数据中心的变压器
2011年8月6日,在北爱尔兰都柏林出现的闪电引起亚马逊和微软在欧洲的云计算网络因为数据中心停电而出现大规模宕机。闪电击中都柏林数据中心附近的变压器,导致其爆炸。爆炸引发火灾,使所有公用服务机构的工作暂时陷入中断,导致整个数据中心出现宕机。
这个数据中心是亚马逊在欧洲唯一的数据存储地,也就是说,EC2云计算平台客户在事故期间没有其他数据中心可供临时使用。宕机事件使得采用亚马逊EC2云服务平台的多家网站长中断达两天时间之久。
典型事件2:卡尔加里数据中心火灾事故
故障原因:数据中心发生火灾
2012年7月11日卡尔加里数据中心火灾事故:加拿大通信服务供应商ShawCommunicationsInc位于卡尔加里阿尔伯塔的数据中心发生了一场火灾,造成当地医院的数百个手术延迟。由于该数据中心提供管理应急服务,此次火灾事件影响了支持关键公共服务主要的备份系统。此次事件为一系列政府机构敲响了警钟,必须确保及时的恢复和拥有故障转移系统,同时结合出台灾害管理计划。
典型事件3:超级飓风桑迪袭击数据中心
故障原因:风暴和洪水导致数据中心停止运行
2012年10月29日,超级飓风桑迪:纽约和新泽西州的数据中心都受到了此次飓风的影响,所带来的恶劣影响包括为曼哈顿下城地区的洪水和一些设施的停机,周围地区数据中心发电机运行失常。飓风桑迪所带来的影响超出了一般单一的中断事故,为受灾地区数据中心产业带来了规模空前的灾难。事实上,柴油已然成为了数据中心恢复工作的生命线,作为备用电源系统接管了整个地区的负荷,促使特别措施,保持发电机的燃料。随着眼前的工作重点逐步转移到灾后重建,我们有必要长期就数据中心的选址、工程和灾难恢复进行探讨,这一话题可能将持续几个月,甚至几年。
断网诱因三:人为因素
典型事件1:Hosting.com服务中断事故
故障原因:服务供应商执行断路器操作顺序不正确造成的UPS关闭
2012年7月28日Hosting.com停运事件:人为错误通常被认为是数据中心停机的主导因素之一。7月Hosting.com中断事件造成 1100名客户服务中断就是一个例子。停机事故的发生是由于该公司位于特拉华州纽瓦克的数据中心正进行UPS系统预防性维护,"服务供应商执行断路器操作顺序不正确造成的UPS关闭是造成数据中心套房内的设施损失的关键因素之一。"Hosting.com首席执行官ArtZeile说。"没有任何重要的电力系统或备用电源系统出现故障,完全是一种人为的错误造成的。"
典型事件2:微软爆发BPOS服务中断事件
故障原因:微软在美国、欧洲和亚洲的数据中心的一个没有确定的设置错误造成的
2010年9月,微软在美国西部几周时间内出现至少三次托管服务中断事件向用户致歉。这是微软首次爆出重大的云计算事件。
事故当时,用户访问BPOS(Business Productivity Online Suite)服务的时候,如果使用微软北美设施访问服务的客户可能遇到了问题,这个故障持续了两个小时。虽然,后来微软工程师声称解决了这一问题,但是没有解决根本问题,因而又产生了9月3日和9月7日服务再次中断。
微软的Clint Patterson说,这次数据突破事件是由于微软在美国、欧洲和亚洲的数据中心的一个没有确定的设置错误造成的。BPOS软件中的离线地址簿在"非常特别的情况下"提供给了非授权用户。这个地址簿包含企业的联络人信息。
微软称,这个错误在发现之后两个小时就修复了。微软称,它拥有跟踪设施,使它能够与那些错误地下载这些数据的人取得联系以便清除这些数据。
断网诱因四:系统故障
典型事件1:GoDaddy网站DNS服务器中断
故障原因:系统内一系列路由器的数据表造成的网络中断
2012年9月10日GoDaddy网站DNS服务器中断:域名巨头GoDaddy是一家最重要的DNS服务器供应商,其拥有500万个网站,管理超过5000万的域名。这就是为什么九月10日中断事故会是一个2012年最具破坏性的事件。
一些炒作甚至认为,此次长达6个小时的中断事件是由于拒绝服务攻击的结果,但GoDaddy后来表示,这是路由器表的损坏数据造成的。"服务中断不是由外部影响造成的。"GoDaddy的临时首席执行官史葛瓦格纳说。"这不是黑客攻击也不是一个拒绝服务攻击(DDoS)。我们已经确定了服务中断是由于内部的一系列路由器的数据表造成的网络事件损坏。"
典型事件2:盛大云存储断网
故障原因:数据中心一台物理服务器磁盘损坏
2012年8月6日晚上8:10,盛大云在其官方微博上发布一则因云主机故障致用户数据丢失事件的公开声明。声明说到:8月6日,盛大云在无锡的数据中心因为一台物理服务器磁盘发生损坏,导致"个别用户"数据的丢失。盛大云已经在尽全力协助用户恢复数据。
对于因为一台"物理服务器磁盘发生损坏",导致"个别用户"数据的丢失的情况,盛大云技术人员给出自己的解释:虚拟机的磁盘有两种生产方式,一种是直接使用宿主机的物理磁盘。这种情况下,如果宿主机的物理磁盘发生故障,云主机不可避免会造成数据丢失,这也是本次事件产生的原因;另外一种是使用远程存储,也就是盛大硬盘产品,这种方式实际上是把用户的数据存到了远程的一个集群里,并同时做了多份备份,即使宿主机出故障也不会影响到云主机的数据。因为物理机的损坏很难避免,为了避免您遇到意外损失,我们建议您在云主机之外,也做好数据备份。
典型事件3:Google App Engine中断服务
故障原因:网络延迟
Google App Engine:GAE是用于开发和托管WEB应用程序的平台,数据中心由google管理,中断时间是10月26日,持续4小时,因为突然变得反应缓慢,而且出错。受此影响,50%的GAE请求均失败。
谷歌表示没有数据丢失,应用程序行为也有备份可以还原。为表歉意,google宣布11月份用户可以google表示他们正在加强其网络服务以应对网络延迟问题,"我们已经增强了流量路由能力,并调整了配置,这些将会有效防止此类问题再次发生"。
断网诱因五:系统Bug
典型事件1:Azure全球中断服务
事故原因:软件Bug导致闰年时间计算不正确
2012年2月28日,由于"闰年bug"导致微软Azure在全球范围内大面积服务中断,中断时间超过24小时。虽然微软表示该软件BUG是由于闰年时间计算不正确导致,但这一事件激起了许多用户的强烈反应,许多人要求微软为此做出更合理详细的解释。
典型事件2:Gmail电子邮箱爆发全球性故障
事故原因:数据中心例行性维护时,新程序代码的副作用
2009年2月24日,谷歌的Gmail电子邮箱爆发全球性故障,服务中断时间长达4小时。谷歌解释事故的原因:在位于欧洲的数据中心例行性维护之时,有些新的程序代码(会试图把地理相近的数据集中于所有人身上)有些副作用,导致欧洲另一个资料中心过载,于是连锁效应就扩及到其它数据中心接口,最终酿成全球性的断线,导致其他数据中心也无法正常工作。
典型事件3:“5.19断网事件”
事故原因:客户端软件Bug,上网终端频繁发起域名解析请求,引发DNS拥塞
2009年5月19日的21:50,江苏、安徽、广西、海南、甘肃、浙江等六省用户申告访问网站速度变慢或无法访问。经过工信部相关单位调查通报称,此次全国六省网络中断事故,原因是国内某公司推出的客户端软件存在缺陷,在该公司域名授权服务器工作异常的情况下,导致安装该软件的上网终端频繁发起域名解析请求,引发DNS拥塞,造成大量用户访问网站慢或网页打不开。
其中,DN SPod是国内知名的域名解析服务商之一的N SPod公司,服务数家知名网站的域名解析服务。此次攻击导致DN SPod公司所属的6台dns域名解析服务器瘫痪,直接造成包括暴风影音在内的多家网络服务商的域名解析系统瘫痪,由此引发网络拥塞,造成大量用户不能正常上网。 工信部指出,此次事件暴露出域名解析服务成为目前网络安全的薄弱环节,指示各单位要加强对域名解析服务的安全保护。
小结
启用云服务的公司,很大程度是考虑这种服务可以更加编辑,性价比高。但是,这样的考虑如果是以降低安全性作为代价,估计很多公司老大不会同意。层出不穷的云服务断网事件引起了云端安全性的担忧。
目前来看,解决的办法可以从几个角度出发,对于企业级客户来说,务必在采用云服务的同时定期备份云端的数据,拥有第二套解决方案按,以备不时之需。而对于云服务提供商来说,既然各种断网事件是在所难免的,那就必须思考一个对策,将自己用户的损失降到最低,对断网事件的响应效率要提高。
政府部门则具有监督和提醒的职责,云服务相关的法律法律要相继出台和不断完善,并且提醒用户百分之百可靠的云计算服务目前还不存在。
印度孟买大停电被美媒“甩锅”中国,如何看待他们的“无知”?
; 印度孟买大停电被美媒“甩锅”中国,如何看待他们的“无知”?
印度“商业首都”孟买因电力的供应不足跳闸,导致了全规模的运作瘫痪,不仅是火车停运,就连医院也启用了紧急发电机来保持呼吸机的运转。
这次停电持续了几个小时便逐渐恢复正常运作,在时隔几个月之后这件事确再次被美国媒体提起,并且指出孟买这次的停电与中国有关,并表示这是针对印度电网的广泛网络行动中的一部分 。而对于此说法,中国和印度都作出了回应。
针对中国媒体的说法,我国代表人员强调说明,中国是网络安全的坚定维护者,历来坚决反对并依法打击一切形式的网络黑客攻击行为 。
简单来说就是我国决不会做出这样的事情,在我国"驳斥 "美媒这一番言论之后,印度方也站出来说明。
印度的电力代表人表示,2020年10月孟买的停电是“人为过失”,并不存在任何蓄意破坏行为,更没有任何证据表明中国或其他国家有网络攻击行为 。
孟买这一次的停电是由于操作员和值班的工程师的失误才引发停电的情况。
印度的电力缺口较高,在印度停电其实已经是常事,在印度每个月的停电次数多的时候可以达到15次左右,而因为电力缺乏造成的商业经济损失也是较高。
其实中印之间的电力合作是在不断加深的,因为缺电,印度致力于电业发展,而在这个领域,中企的设备制造商对于印度的贸易出口额度逐渐增长,所以我国并不需要去做这样的事情,而这样的事情也是不可能出现的。
一部电影,几个黑客控制整个美国,导致交通瘫痪,电力关闭,所有行业受影响,有个警察和黑客恢复
虎胆龙威 4 别名:虎胆龙威4虚拟危机 英文名:Live Free or Die Hard 放映时间:2007年 国家:美国 类别:动作/惊悚 演职员表 导演:伦·维斯曼 Len Wiseman 主演:布鲁斯·威利斯 Bruce Willis 蒂摩希·奥利芬特 Timothy Olyphant 李美琪 Maggie Q 贾斯汀·朗 Justin Long 剧情介绍: 这是《虎胆龙威》系列特别营造的一个惯例:约翰·迈克莱恩总是在错误的时间出现在错误的地方,然后被迫卷进一系列的麻烦之中。话说不知道是哪一年的7月4日,恰好是一个周末,虽说纽约警察约翰·迈克莱恩正在度假中,可是他还来不及和他那已经上大学的女儿露西道别,就被总部的电话叫走了,他接到一个任务:逮捕黑客马特·法莱尔,然后送到FBI那里接受审讯……怎么看这都是一件稀松平常的案子,可是你不要忘了约翰那天生吸引麻烦的体质。约翰刚刚抵达马特的公寓,就像触动了什么机关似的,各种各样的混乱接踵而来。 在马特的帮助下,约翰那不太灵光的脑袋终于开始慢慢理解自己身边为什么发生了这么多事情。原来,不知道来自于何方的一股攻击力量,正在侵蚀着美国的计算机系统,一旦成功,整个国家都将陷入停顿的可怕状态。当然,这个计划背后肯定有一个神秘人物,只是FBI没办法确定这位神秘人的具体位置。 制造这场混乱的幕后黑手就是托马斯·加布里埃尔,他为约翰准备了一大堆机关障碍,包括绑架他的女儿露西。目的只有一个,就是避免这个警察插手自己一手策划的惊天大计划。要说计算机啊网络啊,可都是约翰的死穴,虽然不至于一窍不通,也八九不离十了。好在虽然一路连滚带爬,约翰却没忘记自己的任务,将马特牢牢地带在自己身边,于是这位年轻的黑客小伙子,就成了这一次约翰身边最得力的帮手。
有一部美国灾难电影写的是一个叫克莱斯的电力公司有漏洞 被黑客攻击全城停电第二天马上要来超级龙卷风?
飓风袭击美国 Day of Destruction (2004)
又名: 毁灭之日 / 飓风袭击美国第6范畴 / Category 6
大范围停电的原因是有什么?
1罕见故障造成的电网网架和功角稳定性的破坏;2机组出力和负荷的无法平衡造成的频率崩溃;3系统无功不足导致的电压崩溃;4黑客入侵,自动化装备异常导致的电网破坏。
一般而言,目前大家考虑地比较多地是第1种,大陆实际发生的也是第1种,每年超强台风都会搞得大家鸡飞狗跳,严重点的局部强对流如果发生在线路密集走廊,也是一地鸡毛。第2种目前国内发电能力过剩,各省之间互相联络,还可以申请跨省支援,大家不太考虑这件事情,台湾这次的问题就出在这方面,导致不得不切除部分负荷,来实现频率的平衡。备用不足的问题之前在大陆也发生过,某省电网因为前期梅雨天气,负荷较低,对高温天气估计不足,开机准备不足,高温突然来临时因空调负荷猛增,被打了个措手不及,各邻省通力支援才挺了过去。第3种容易出现在缺少独立电压支撑点的大城市受电网络,历史上比较典型的就是东京大停电,目前这一块因为城市缆化率较高、国内配备的无功补偿设备容量足够,出问题概率很低,关注较少。第4种在黑客侵入乌克兰电网之后引起业内广泛关注,从政府到企业采取了大量措施。
最后,说一些个人感想,虽然经过多年的建设,大陆电源充足、网架坚强,不太可能发生台湾那种明知会出问题还赌人品的事情,但是这也不是我们从业人员放松警惕、嘲笑对岸同行的理由。我们面临着远比台湾电网复杂的挑战,台湾电网仅仅是一个孤立的中等省级电网,大陆的区域电网通过特高压交直流互联,已成为全球最庞大最复杂的电网。这在获得巨大的联网效益的同时,面临着严峻的稳定问题挑战,许多教科书上没有、前人未曾发现的问题不断出现,考验着我们从业人员的智慧。
前这一块因为城市缆化率较高、国内配备的无功补偿设备容量足够,出问题概率很低,关注较少。第4种在黑客侵入乌克兰电网之后引起业内广泛关注,从政府到企业采取了大量措施。最后,说一些个人感想,虽然经过多年的建设,大陆电源充足、网
。第2种目前国内发电能力过剩,各省之间互相联络,还可以申请跨省支援,大家不太考虑这件事情,台湾这次的问题就出在这方面,导致不得不切除部分负荷,来实现频率的平衡。备用不足的问题之前在大陆也发生过,某省电网因为前期梅雨天气,负荷较低,对高温天气估计不足,开机准备不足,高温突然来临时因空调负荷
州纽瓦克的数据中心正进行UPS系统预防性维护,"服务供应商执行断路器操作顺序不正确造成的UPS关闭是造成数据中心套房内的设施损失的关键因素之一。"Hosting.com首席执行官ArtZeile说。"没有任何重要的电力系
术人员给出自己的解释:虚拟机的磁盘有两种生产方式,一种是直接使用宿主机的物理磁盘。这种情况下,如果宿主机的物理磁盘发生故障,云主机不可避免会造成数据丢失,这也是本次事件产生的原因;另外一种是使用远程存储,也就是盛大硬盘产品,这种方式实际上是把用户的数据存到了远程的一个集