本日はさくらインターネットの専用サーバの中の人による,データセンターについてのあれこれ.
##メモと感想
- 一般的には 1ラック 30A で,場合によっては 60A ~ 80A となることも.
- 意外なほどデータセンターの消費電力量が多い.
- Atomの低消費電力性はやはり優秀らしい.
- 過密集約しないと需要に対応できない現状なんだろうか.
====
##基本スペック
- 一般的にはラックがすらーっと・・・・
- 実際には裏に様々な条件やファシリティ(施設)がある
- ファシリティ
- 立地条件
- 自然災害のリスク対策として,地震が少ない・台風や洪水の被害に遭わない・津波の影響を受けない場所などは避ける
- 23区内など,利用する顧客がアクセスしやすい場所が好まれる
- 確かに近い方が良い
- 耐震・免震・制震
- 地震でサーバが壊れると....
- 建築基準法の耐震要件:震度6よりも高い,震度7を想定しているらしい.
- 耐震
- ビルをひたすら頑丈な作りに
- 制震
- 揺れを吸収するような感じ
- 免震
- 揺れの影響を受けないようにする
- 電源
- 電源を2重化
- 商用電源(電力会社の電源)と自家発電の2系統を用意
- 瞬断・自家発電への切替時などの対策として,UPS を入れておけば安心
- 消化
##省電力化
- データセンターに求められているもの
- 災害対策 + セキュリティ対策 + グリーンIT
- つまり省電力化と発熱量の削減が求められる傾向にある.
- 消費電力のアメリカでのデータ
- 2006年度では,アメリカ全体の 1.5% がデータセンターの消費電力量(600億kWh)
- 日本では IT 関連の電気料の 12% (2006年度)
- アメリカの 1/10,比率的には全体の 0.5 %
- データセンターの消費電力量の内訳
- 空調が全体の 30% もある
- 省電力化のポイント
- 空調システムの効率化
- IT 機器の省電力化
- データセンターをグリーン化するような風潮
- ファシリティの設計から見直さないと,効率的な空調・冷却はできない.
##ラック冷却の効率化
- 熱により性能の低下や品質の劣化,故障の増加に繋がる
- 対策としては,床下空調とアイルキャッピング
- 床下空調
- ラックの下から冷風を吹き付けて,上で暖められた空気を排気する.
- デメリット
- ラック上部が冷えにくい
- 局所的な熱だまりを十分に冷やすために,過度な冷却が必要になるので,実は効率的ではない?
- 機材混在時に,空気の通りが悪くなる場所ができると,まずい.
- さくらでは,冷気の流れを遮断しないように,サーバのシャーシをフレーム化した,フレームサーバを作ったそうだ.
- 上下の仕切りは無し
- ブレードサーバっぽく設置
- M/B が壁にならないように
- フレームサーバの問題点
- スイッチなどが風を遮る場合もある
- アイルキャッピング
- 前面吸気,後面排気の方式
- ラック間の通路に冷気を流し,そこから吸気
- ラックの後ろから暖められた空気を吸気して排気する
- 注意点や懸念など
- 吸排気の前後をしっかり配置しないと効率が悪くなる.
- ラック扉をメッシュタイプにする必要があるので,セキュリティの確保が困難
- 冷暖の差が激しくなるので,作業環境としては劣悪化も?
- Back to Back マウント
- 1U ハーフにして,ラックに2列設置し,サーバの背面(排気面)どうしを向かい合わせることで,冷却効率を上げる.
- アイルキャッピングと組み合わせることで,より効果的に.
- さくらではまたもや自作するようだ.
- 1U クォータシャーシサーバ
- 横幅も半分にして4倍搭載できるように.
- 1台あたりは非力にして,専用サーバに対応できる台数を.