خلال الفترة من 2010 حتى نهاية 2024، تضاعف عدد مراكز البيانات في الولايات المتحدة أربع مرات، مع مئات المشاريع الجديدة عالميًا بقدرات تتجاوز 100 ميجاوات. هذا التوسع السريع تقوده شركات التقنية الكبرى لتلبية الطلب المتزايد على الحوسبة، خصوصًا مع صعود الذكاء الاصطناعي.
لكن السؤال المطروح هو: هل يمكن الاكتفاء بتحديث مراكز البيانات الحالية بدلًا من بناء منشآت جديدة؟ خبراء مراكز البيانات يرون أن ذلك غير ممكن في أغلب الحالات، لأن المراكز التقليدية غير مصممة لتحمل متطلبات الذكاء الاصطناعي الحديثة.
المشكلة الأساسية تتعلق بالوزن والطاقة. رفوف الذكاء الاصطناعي الحديثة قد يصل وزنها إلى نحو 5,000 رطل للرف الواحد، مقارنة بـ400–600 رطل قبل عقود. هذا الوزن ناتج عن الكثافة العالية للمعالجات والذاكرة ووحدات GPU، إضافة إلى أن أحمال الطاقة ارتفعت من نحو 10 كيلووات لكل رف إلى ما يصل إلى 350 كيلووات.
هذا الاستهلاك الضخم للطاقة يولد حرارة هائلة، ما يتطلب أنظمة تبريد سائلة ثقيلة ومعقدة، فضلًا عن كابلات وموصلات طاقة أكبر وزنًا. معظم الأرضيات المرتفعة في مراكز البيانات القديمة لا تتحمل هذه الأحمال، لا الثابتة ولا الديناميكية، ما يجعل التحديث الجزئي غير كافٍ.
حتى من الناحية الهندسية، ارتفع طول الرفوف إلى نحو 9 أقدام، وهو ما يتجاوز قدرات المصاعد والأبواب الصناعية في كثير من المباني القديمة. لذلك، يؤكد الخبراء أن الحل في الغالب يكون بهدم المنشأة وبنائها من جديد.
نتيجة لذلك، تواصل شركات مثل OpenAI وMicrosoft استئجار وبناء مراكز بيانات جديدة مخصصة للذكاء الاصطناعي، بينما تستمر شركات الاستضافة في إنشاء منشآت ضخمة لهذا الغرض. وكما يلخص الخبراء: الذكاء الاصطناعي أصبح يلتهم كل شيء.
ورغم ذلك، لن تختفي مراكز البيانات التقليدية، إذ لا تزال أحمال العمل غير المرتبطة بالذكاء الاصطناعي في ازدياد. الجامعات والمستشفيات والشركات والبلديات ستظل بحاجة إلى بنية مراكز البيانات الكلاسيكية لتخزين وتشغيل بياناتها، جنبًا إلى جنب مع مراكز الذكاء الاصطناعي العملاقة.
للمزيد من الأخبار التقنية، تابع تيكبامين