第15回オープンソーステクノロジー勉強会に行ってきた

本日はさくらインターネットの専用サーバの中の人による,データセンターについてのあれこれ

##メモと感想

  • 一般的には 1ラック 30A で,場合によっては 60A ~ 80A となることも.
  • 意外なほどデータセンターの消費電力量が多い.
  • Atomの低消費電力性はやはり優秀らしい.
  • 過密集約しないと需要に対応できない現状なんだろうか.

====

##基本スペック

  • 一般的にはラックがすらーっと・・・・
    • 実際には裏に様々な条件やファシリティ(施設)がある
  • ファシリティ
    • 立地条件
    • 自然災害のリスク対策として,地震が少ない・台風や洪水の被害に遭わない・津波の影響を受けない場所などは避ける
    • 23区内など,利用する顧客がアクセスしやすい場所が好まれる
      • 確かに近い方が良い
    • 耐震・免震・制震
    • 地震でサーバが壊れると....
    • 建築基準法の耐震要件:震度6よりも高い,震度7を想定しているらしい.
    • 耐震
      • ビルをひたすら頑丈な作りに
    • 制震
      • 揺れを吸収するような感じ
    • 免震
      • 揺れの影響を受けないようにする
    • 電源
    • 電源を2重化
      • 商用電源(電力会社の電源)と自家発電の2系統を用意
    • 瞬断・自家発電への切替時などの対策として,UPS を入れておけば安心
    • 消化

##省電力化

  • データセンターに求められているもの
    • 災害対策 + セキュリティ対策 + グリーンIT
    • つまり省電力化と発熱量の削減が求められる傾向にある.
  • 消費電力のアメリカでのデータ
    • 2006年度では,アメリカ全体の 1.5% がデータセンターの消費電力量(600億kWh)
  • 日本では IT 関連の電気料の 12% (2006年度)
    • アメリカの 1/10,比率的には全体の 0.5 %
  • データセンターの消費電力量の内訳
    • 空調が全体の 30% もある
  • 省電力化のポイント
    • 空調システムの効率化
    • IT 機器の省電力化
  • データセンターをグリーン化するような風潮
    • ファシリティの設計から見直さないと,効率的な空調・冷却はできない.

##ラック冷却の効率化

  • 熱により性能の低下や品質の劣化,故障の増加に繋がる
  • 対策としては,床下空調とアイルキャッピング
  • 床下空調
    • ラックの下から冷風を吹き付けて,上で暖められた空気を排気する.
    • デメリット
    • ラック上部が冷えにくい
    • 局所的な熱だまりを十分に冷やすために,過度な冷却が必要になるので,実は効率的ではない?
    • 機材混在時に,空気の通りが悪くなる場所ができると,まずい.
    • さくらでは,冷気の流れを遮断しないように,サーバのシャーシをフレーム化した,フレームサーバを作ったそうだ.
    • 上下の仕切りは無し
    • ブレードサーバっぽく設置
      • M/B が壁にならないように
    • フレームサーバの問題点
      • スイッチなどが風を遮る場合もある
  • アイルキャッピング
    • 前面吸気,後面排気の方式
    • ラック間の通路に冷気を流し,そこから吸気
    • ラックの後ろから暖められた空気を吸気して排気する
    • 注意点や懸念など
    • 吸排気の前後をしっかり配置しないと効率が悪くなる.
    • ラック扉をメッシュタイプにする必要があるので,セキュリティの確保が困難
    • 冷暖の差が激しくなるので,作業環境としては劣悪化も?
  • Back to Back マウント
    • 1U ハーフにして,ラックに2列設置し,サーバの背面(排気面)どうしを向かい合わせることで,冷却効率を上げる.
    • アイルキャッピングと組み合わせることで,より効果的に.
    • さくらではまたもや自作するようだ.
  • 1U クォータシャーシサーバ
    • 横幅も半分にして4倍搭載できるように.
    • 1台あたりは非力にして,専用サーバに対応できる台数を.
 
comments powered by Disqus