Zamknij

Twój koszyk

Razem: 0.00 zł
Razem z VAT: 0,00 zł
Przejdź do kasy

Model 'adaptive reuse' napędza rynek data center. PLDCA wskazuje na poprzemysłowe obiekty jako fundament infrastruktury dla AI

Adaptive reuse napędza rozwój centrów danych w Polsce

Dodaj do ulubionych:
Przemiana poprzemysłowych obiektów w centra danych to nowy trend w branży nieruchomości, który zyskuje na znaczeniu w kontekście rosnącego zapotrzebowania na moc obliczeniową napędzaną przez sztuczną inteligencję i chmurę obliczeniową. Wykorzystanie istniejącej infrastruktury energetycznej i terenów poprzemysłowych pozwala na szybszy rozwój centrów danych, co jest kluczowe dla transformacji cyfrowej i energetycznej. Dodatkowo, takie podejście wspiera zrównoważony rozwój poprzez redukcję śladu węglowego i integrację z miejskimi sieciami ciepłowniczymi, co czyni je istotnym elementem nowoczesnej strategii przemysłowej.
REKLAMA

Jeszcze dziesięć lat temu wyłączane z eksploatacji elektrownie, kopalnie i tereny fabryczne oznaczały głównie konieczność przeprowadzenia kosztownej rekultywacji oraz skomplikowanych procesów rewitalizacyjnych. Obecnie takie nieruchomości coraz częściej stanowią bazę dla rozwoju infrastruktury cyfrowej, stając się przestrzenią do budowy nowoczesnych centrów danych, które obsługują technologie chmurowe oraz zaawansowaną sztuczną inteligencję. Zauważalna jest wyraźna zmiana w strategiach inwestorskich. Zamiast tradycyjnego wyburzania i wznoszenia budynków od podstaw, decydenci chętnie stawiają na model adaptive reuse, polegający na adaptacji istniejącej zabudowy na wysokowydajne huby cyfrowe. Eksperci z Polskiego Związku Centrów Danych (PLDCA) zaznaczają, że w dobie skokowego wzrostu zapotrzebowania na energię ze strony systemów AI, to nie sam grunt inwestycyjny stanowi najbardziej pożądany zasób.

„To, co dziś jest niezbędne dla rozwoju centrów danych, to dostęp do mocy energetycznej i infrastruktury przesyłowej oraz łatwość procedur formalnych związanych z decyzjami środowiskowymi i pozwoleniem na budowę. Dlatego inwestorzy coraz częściej patrzą na tereny poprzemysłowe – tam, gdzie istnieją już stacje transformatorowe, linie wysokiego napięcia czy przyłącza, które w nowych lokalizacjach trzeba budować latami. Dodatkowym atutem tego typu lokalizacji w Polsce może być bezpośredni dostęp do sieci ciepłowniczej, umożliwiającej oddanie ciepła z przetwarzania danych”, wskazuje Piotr Kowalski, dyrektor zarządzający Polskiego Związku Centrów Danych (PLDCA).

Niefunkcjonujące już obiekty energetyczne i produkcyjne posiadają atuty niezwykle pożądane w epoce rozwoju sztucznej inteligencji. Konstrukcje te od początku planowano pod kątem przenoszenia potężnych obciążeń – zarówno energetycznych, jak i mechanicznych. Dawne hale maszynowni czy turbinowni charakteryzują się wysokimi kondygnacjami oraz solidnymi fundamentami, co tworzy optymalne warunki do zaaranżowania gęsto upakowanych szaf serwerowych. Parametry tego rzędu są kluczowe dla środowisk obsługujących systemy AI. Współczesne klastry obliczeniowe, bazujące na akceleratorach GPU, wyróżniają się znacznie wyższym zużyciem prądu i większym ciężarem w porównaniu do klasycznej infrastruktury IT. Determinuje to konieczność zapewnienia nie tylko odpowiedniego przydziału mocy przyłączeniowej, ale również odpowiedniej nośności stropów i miejsca niezbędnego do instalacji rozbudowanych układów chłodzących.

„Jednocześnie warto podkreślić, że obecne zużycie energii przez centra danych w Polsce wciąż pozostaje relatywnie niewielkie w skali całego systemu energetycznego. Roczna moc operacyjna rynku wynosi dziś około 200 MW, a zużycie energii oscyluje w granicach 1,7–1,8 TWh, czyli około 1 proc. krajowego zużycia energii elektrycznej. To jednak dopiero początek – wraz z rozwojem chmury i AI zapotrzebowanie będzie szybko rosnąć. Dlatego już dziś centra danych powinny być traktowane jako ważny uczestnik systemu elektroenergetycznego – nie tylko jako odbiorca energii, ale także jako jeden z motorów transformacji energetycznej”, wyjaśnia Krystian Pypłacz, ekspert rynku Data Center, PLDCA.

Szacunki opublikowane przez Polskie Sieci Elektroenergetyczne (PSE) pokazują wyraźnie, że dynamiczna ekspansja usług cyfrowych oraz narzędzi inteligentnych wymusi gwałtowną rozbudowę bazy sprzętowej. Jeden z prognozowanych scenariuszy zakłada, że do 2036 roku łączna moc serwerowni w kraju może osiągnąć pułap 3,1 GW, natomiast w perspektywie długoterminowej do 2040 roku – nawet 5 GW. Przełożyłoby się to na konsumpcję prądu na poziomie 17,4 TWh w 2036 r. oraz 29,4 TWh w 2040 r., stając się istotnym czynnikiem dla stabilności krajowego systemu elektroenergetycznego. Wobec tak projektowanego popytu na zasilanie niezwykłej wagi nabiera zachowana infrastruktura poprzemysłowa, w tym gotowe, a obecnie nierzadko nieużywane, przyłącza wysokiego napięcia.

„W Europie dostęp do mocy przyłączeniowej staje się jednym z głównych ograniczeń rozwoju centrów danych. Lokalizacje z istniejącymi stacjami transformatorowymi czy punktami zasilania mogą skrócić proces inwestycyjny nawet o kilka lat. Jednocześnie wybór modelu adaptive reuse to nie tylko pragmatyzm biznesowy, ale też realizacja strategii ESG. Wykorzystanie istniejącej bryły budynku pozwala na drastyczne obniżenie tzw. śladu węglowego wbudowanego, a to dla inwestorów nowoczesnych centrów danych jest ważnym aspektem. Nie wszystkie obiekty nadają się wprost do instalacji AI, ale te, które mają solidną strukturę i dostęp do przyłączy wysokiego napięcia, stanowią ogromną przewagę inwestycyjną”, podkreśla Piotr Kowalski.

Doskonałą ilustracją krajowej transformacji z sektora konwencjonalnego do gospodarki cyfrowej jest inicjatywa grupy ZE PAK w Koninie. Obszar ten, historycznie zdominowany przez wydobycie węgla brunatnego, obecnie przechodzi intensywne zmiany kierunkowe na rozwiązania niskoemisyjne. W miejscach dawnych odkrywek wybudowano farmy fotowoltaiczne, a pozostałości po wyłączanych z użytku elektrowniach adaptowane są na potrzeby serwerowni. Decydujące znaczenie ma tu odziedziczona sieć przesyłowa, służąca niegdyś do redystrybucji energii z konińskiego zakładu. Kolejnym reprezentatywnym przedsięwzięciem jest projekt potężnego hubu o mocy 500 MW zlokalizowanego w Bełchatowie. To jasny dowód na to, że na zdekabornizowanych obszarach Polski realizuje się wielkoskalowe obiekty (hyperscale). Według raportu Forum Energii 'Ciepło z internetu', inwestycje te – dzięki możliwości połączenia z miejskim systemem ciepłowniczym – mają szansę odegrać rolę filarów w zrównoważonym modelu energetycznym państwa.

Swoistym wzorcem do naśladowania są rozwiązania z Finlandii, zwłaszcza realizacje z Espoo i Helsinek. Tamtejsze centra danych funkcjonują jako integralny element miejskiej infrastruktury energetycznej. Przykładem jest projekt koncernu Fortum zrzeszony z firmą Microsoft, w ramach którego ciepło odpadowe z serwerowni trafia do lokalnej sieci. Docelowo układy te mają zabezpieczać blisko 40% potrzeb grzewczych aglomeracji helsińskiej. Ten nordycki model wymaga ścisłej współpracy z operatorami sieci, którzy przygotowują dawne tereny jako w pełni uzbrojone pakiety deweloperskie – dysponujące zasilaniem, światłowodami i gotowymi rurociągami, sprawiając, że data center staje się ważnym węzłem stabilizującym miejskie ogrzewanie.

Praktyka inwestowania na terenach 'brownfield' umacnia swoją pozycję w całej Europie. Na niemieckim rynku, w obrębie zagłębia technologicznego Hanau (region Frankfurt–Ren–Men), deweloperzy masowo przejmują opuszczone kompleksy produkcyjne oraz obiekty powojskowe na obrzeżach aglomeracji. Na szczególną uwagę zasługuje tam projekt spółki Data4, obejmujący budowę kampusu o docelowej mocy 180 MW, gdzie w procesie budowy fundamentów wykorzystano i poddano recyklingowi aż 94% materiałów z rozbiórki historycznych zabudowań. Równie nowatorskim podejściem charakteryzuje się norweski kompleks Lefdal Mine Datacenter, gdzie infrastrukturę cyfrową wbudowano w nieczynną kopalnię oliwinu. Inwestycja ta stanowi przełom w zakresie naturalnego chłodzenia serwerów, czerpiąc z niskich temperatur podziemnych szybów oraz lodowatych wód z przyległego fiordu. Zbliżonym potencjałem charakteryzują się również zatopione kopalnie węgla, w których stała termika wielkich zbiorników wodnych może radykalnie odciążyć energetycznie układy klimatyzacyjne, pozwalając obiektom na osiąganie rewelacyjnych wskaźników efektywności (PUE rzędu 1,08–1,15).

Adaptacja pofabrycznych zabudowań przynosi także konkretne zyski dla samorządów. Proces przetwarzania ogromnych pakietów danych generuje równolegle pokaźne zasoby ciepła technologicznego, które coraz efektywniej zasila miejskie węzły cieplne, obsługując pobliskie dzielnice mieszkaniowe i strefy biurowe.

„Według raportu grupy roboczej PLDCA potencjał odzysku ciepła z centrów danych w Polsce wyniesie do 2030 roku niemal 19 700 TJ rocznie, czyli ponad 7 proc. krajowego zapotrzebowania na ciepło sieciowe. Do 2035 roku udział ten może wzrosnąć do 16 proc. To wartości, które pozwalają myśleć o centrach danych nie tylko jako infrastrukturze cyfrowej, ale także jako nowym źródle energii systemowej, będącym częścią nowoczesnego ekosystemu energetycznego. Mamy do czynienia z jednym z nielicznych źródeł ciepła o dużej przewidywalności i całorocznej dostępności. Cyfryzacja może realnie wspierać dekarbonizację polskiego ciepłownictwa”, komentuje Emil Gromadzki, przewodniczący grupy roboczej poświęconej analizie odzysku ciepła w PLDCA.

Wymiar tego potencjału potwierdzają skandynawskie wdrożenia: w Sztokholmie operatorzy potrafią przetransferować do zewnętrznej sieci grzewczej nawet 90 proc. energii odpadowej z chłodzenia maszyn, a w Oslo wolumen z odzysku opiewa na 25 GWh rocznie, pozwalając na ogrzanie blisko 5 tysięcy lokali mieszkalnych.

Popyt na zasoby obliczeniowe wymusza na rynku nieruchomości gruntowną zmianę strategii nabywczych. Obiecujące perspektywy zrównoważonego rozwoju coraz częściej oddalają decyzje deweloperów od wyboru nowych gruntów na rzecz działek z historią energetyczno-przemysłową.

„Tereny poprzemysłowe pozwalają skrócić time-to-market, ograniczyć koszty budowy i wdrożyć bardziej zrównoważone technologie. Czas, moc i infrastruktura stają się nową walutą dekady. Potencjał wykorzystania terenów poprzemysłowych dla rozwoju centrów danych będzie jednym z tematów dyskusji podczas konferencji Gateway Poland 2026. To jeden z najciekawszych i najszybciej rozwijających się kierunków nowej strategii przemysłowej”, podsumowuje Piotr Kowalski.

Przyszłość polskiego segmentu IT oraz kierunki transformacji energetycznej to zagadnienia, które wezmą pod lupę paneliści konferencji Gateway Poland 2026, organizowanej w Warszawie w dniach 14–15 kwietnia 2026 r. Nadchodzące wydarzenie, wspierane merytorycznie przez Ministerstwo Cyfryzacji oraz Ministerstwo Klimatu i Środowiska, stanowić będzie przestrzeń do debaty środowisk zrzeszonych wokół Polskiego Związku Centrów Danych (PLDCA), który reprezentuje blisko 80 podmiotów zaangażowanych w budowę cyfrowego łańcucha dostaw w Polsce.

REKLAMA
Subscribe to newsletter

Subscribe to receive the latest blog posts to your inbox every week.

By subscribing you agree to with our Privacy Policy.
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

Najnowsze wydanie!

<< ARTYKUŁ TOWARZYSZĄCY

Model 'adaptive reuse' napędza rynek data center. PLDCA wskazuje na poprzemysłowe obiekty jako fundament infrastruktury dla AI

Adaptive reuse napędza rozwój centrów danych w Polsce

23.03.2026
Rozmawiał/-a
Sylwia Łysak
Stanowisko
Przemiana poprzemysłowych obiektów w centra danych to nowy trend w branży nieruchomości, który zyskuje na znaczeniu w kontekście rosnącego zapotrzebowania na moc obliczeniową napędzaną przez sztuczną inteligencję i chmurę obliczeniową. Wykorzystanie istniejącej infrastruktury energetycznej i terenów poprzemysłowych pozwala na szybszy rozwój centrów danych, co jest kluczowe dla transformacji cyfrowej i energetycznej. Dodatkowo, takie podejście wspiera zrównoważony rozwój poprzez redukcję śladu węglowego i integrację z miejskimi sieciami ciepłowniczymi, co czyni je istotnym elementem nowoczesnej strategii przemysłowej.
REKLAMA

Jeszcze dziesięć lat temu wyłączane z eksploatacji elektrownie, kopalnie i tereny fabryczne oznaczały głównie konieczność przeprowadzenia kosztownej rekultywacji oraz skomplikowanych procesów rewitalizacyjnych. Obecnie takie nieruchomości coraz częściej stanowią bazę dla rozwoju infrastruktury cyfrowej, stając się przestrzenią do budowy nowoczesnych centrów danych, które obsługują technologie chmurowe oraz zaawansowaną sztuczną inteligencję. Zauważalna jest wyraźna zmiana w strategiach inwestorskich. Zamiast tradycyjnego wyburzania i wznoszenia budynków od podstaw, decydenci chętnie stawiają na model adaptive reuse, polegający na adaptacji istniejącej zabudowy na wysokowydajne huby cyfrowe. Eksperci z Polskiego Związku Centrów Danych (PLDCA) zaznaczają, że w dobie skokowego wzrostu zapotrzebowania na energię ze strony systemów AI, to nie sam grunt inwestycyjny stanowi najbardziej pożądany zasób.

„To, co dziś jest niezbędne dla rozwoju centrów danych, to dostęp do mocy energetycznej i infrastruktury przesyłowej oraz łatwość procedur formalnych związanych z decyzjami środowiskowymi i pozwoleniem na budowę. Dlatego inwestorzy coraz częściej patrzą na tereny poprzemysłowe – tam, gdzie istnieją już stacje transformatorowe, linie wysokiego napięcia czy przyłącza, które w nowych lokalizacjach trzeba budować latami. Dodatkowym atutem tego typu lokalizacji w Polsce może być bezpośredni dostęp do sieci ciepłowniczej, umożliwiającej oddanie ciepła z przetwarzania danych”, wskazuje Piotr Kowalski, dyrektor zarządzający Polskiego Związku Centrów Danych (PLDCA).

Niefunkcjonujące już obiekty energetyczne i produkcyjne posiadają atuty niezwykle pożądane w epoce rozwoju sztucznej inteligencji. Konstrukcje te od początku planowano pod kątem przenoszenia potężnych obciążeń – zarówno energetycznych, jak i mechanicznych. Dawne hale maszynowni czy turbinowni charakteryzują się wysokimi kondygnacjami oraz solidnymi fundamentami, co tworzy optymalne warunki do zaaranżowania gęsto upakowanych szaf serwerowych. Parametry tego rzędu są kluczowe dla środowisk obsługujących systemy AI. Współczesne klastry obliczeniowe, bazujące na akceleratorach GPU, wyróżniają się znacznie wyższym zużyciem prądu i większym ciężarem w porównaniu do klasycznej infrastruktury IT. Determinuje to konieczność zapewnienia nie tylko odpowiedniego przydziału mocy przyłączeniowej, ale również odpowiedniej nośności stropów i miejsca niezbędnego do instalacji rozbudowanych układów chłodzących.

„Jednocześnie warto podkreślić, że obecne zużycie energii przez centra danych w Polsce wciąż pozostaje relatywnie niewielkie w skali całego systemu energetycznego. Roczna moc operacyjna rynku wynosi dziś około 200 MW, a zużycie energii oscyluje w granicach 1,7–1,8 TWh, czyli około 1 proc. krajowego zużycia energii elektrycznej. To jednak dopiero początek – wraz z rozwojem chmury i AI zapotrzebowanie będzie szybko rosnąć. Dlatego już dziś centra danych powinny być traktowane jako ważny uczestnik systemu elektroenergetycznego – nie tylko jako odbiorca energii, ale także jako jeden z motorów transformacji energetycznej”, wyjaśnia Krystian Pypłacz, ekspert rynku Data Center, PLDCA.

Szacunki opublikowane przez Polskie Sieci Elektroenergetyczne (PSE) pokazują wyraźnie, że dynamiczna ekspansja usług cyfrowych oraz narzędzi inteligentnych wymusi gwałtowną rozbudowę bazy sprzętowej. Jeden z prognozowanych scenariuszy zakłada, że do 2036 roku łączna moc serwerowni w kraju może osiągnąć pułap 3,1 GW, natomiast w perspektywie długoterminowej do 2040 roku – nawet 5 GW. Przełożyłoby się to na konsumpcję prądu na poziomie 17,4 TWh w 2036 r. oraz 29,4 TWh w 2040 r., stając się istotnym czynnikiem dla stabilności krajowego systemu elektroenergetycznego. Wobec tak projektowanego popytu na zasilanie niezwykłej wagi nabiera zachowana infrastruktura poprzemysłowa, w tym gotowe, a obecnie nierzadko nieużywane, przyłącza wysokiego napięcia.

„W Europie dostęp do mocy przyłączeniowej staje się jednym z głównych ograniczeń rozwoju centrów danych. Lokalizacje z istniejącymi stacjami transformatorowymi czy punktami zasilania mogą skrócić proces inwestycyjny nawet o kilka lat. Jednocześnie wybór modelu adaptive reuse to nie tylko pragmatyzm biznesowy, ale też realizacja strategii ESG. Wykorzystanie istniejącej bryły budynku pozwala na drastyczne obniżenie tzw. śladu węglowego wbudowanego, a to dla inwestorów nowoczesnych centrów danych jest ważnym aspektem. Nie wszystkie obiekty nadają się wprost do instalacji AI, ale te, które mają solidną strukturę i dostęp do przyłączy wysokiego napięcia, stanowią ogromną przewagę inwestycyjną”, podkreśla Piotr Kowalski.

Doskonałą ilustracją krajowej transformacji z sektora konwencjonalnego do gospodarki cyfrowej jest inicjatywa grupy ZE PAK w Koninie. Obszar ten, historycznie zdominowany przez wydobycie węgla brunatnego, obecnie przechodzi intensywne zmiany kierunkowe na rozwiązania niskoemisyjne. W miejscach dawnych odkrywek wybudowano farmy fotowoltaiczne, a pozostałości po wyłączanych z użytku elektrowniach adaptowane są na potrzeby serwerowni. Decydujące znaczenie ma tu odziedziczona sieć przesyłowa, służąca niegdyś do redystrybucji energii z konińskiego zakładu. Kolejnym reprezentatywnym przedsięwzięciem jest projekt potężnego hubu o mocy 500 MW zlokalizowanego w Bełchatowie. To jasny dowód na to, że na zdekabornizowanych obszarach Polski realizuje się wielkoskalowe obiekty (hyperscale). Według raportu Forum Energii 'Ciepło z internetu', inwestycje te – dzięki możliwości połączenia z miejskim systemem ciepłowniczym – mają szansę odegrać rolę filarów w zrównoważonym modelu energetycznym państwa.

Swoistym wzorcem do naśladowania są rozwiązania z Finlandii, zwłaszcza realizacje z Espoo i Helsinek. Tamtejsze centra danych funkcjonują jako integralny element miejskiej infrastruktury energetycznej. Przykładem jest projekt koncernu Fortum zrzeszony z firmą Microsoft, w ramach którego ciepło odpadowe z serwerowni trafia do lokalnej sieci. Docelowo układy te mają zabezpieczać blisko 40% potrzeb grzewczych aglomeracji helsińskiej. Ten nordycki model wymaga ścisłej współpracy z operatorami sieci, którzy przygotowują dawne tereny jako w pełni uzbrojone pakiety deweloperskie – dysponujące zasilaniem, światłowodami i gotowymi rurociągami, sprawiając, że data center staje się ważnym węzłem stabilizującym miejskie ogrzewanie.

Praktyka inwestowania na terenach 'brownfield' umacnia swoją pozycję w całej Europie. Na niemieckim rynku, w obrębie zagłębia technologicznego Hanau (region Frankfurt–Ren–Men), deweloperzy masowo przejmują opuszczone kompleksy produkcyjne oraz obiekty powojskowe na obrzeżach aglomeracji. Na szczególną uwagę zasługuje tam projekt spółki Data4, obejmujący budowę kampusu o docelowej mocy 180 MW, gdzie w procesie budowy fundamentów wykorzystano i poddano recyklingowi aż 94% materiałów z rozbiórki historycznych zabudowań. Równie nowatorskim podejściem charakteryzuje się norweski kompleks Lefdal Mine Datacenter, gdzie infrastrukturę cyfrową wbudowano w nieczynną kopalnię oliwinu. Inwestycja ta stanowi przełom w zakresie naturalnego chłodzenia serwerów, czerpiąc z niskich temperatur podziemnych szybów oraz lodowatych wód z przyległego fiordu. Zbliżonym potencjałem charakteryzują się również zatopione kopalnie węgla, w których stała termika wielkich zbiorników wodnych może radykalnie odciążyć energetycznie układy klimatyzacyjne, pozwalając obiektom na osiąganie rewelacyjnych wskaźników efektywności (PUE rzędu 1,08–1,15).

Adaptacja pofabrycznych zabudowań przynosi także konkretne zyski dla samorządów. Proces przetwarzania ogromnych pakietów danych generuje równolegle pokaźne zasoby ciepła technologicznego, które coraz efektywniej zasila miejskie węzły cieplne, obsługując pobliskie dzielnice mieszkaniowe i strefy biurowe.

„Według raportu grupy roboczej PLDCA potencjał odzysku ciepła z centrów danych w Polsce wyniesie do 2030 roku niemal 19 700 TJ rocznie, czyli ponad 7 proc. krajowego zapotrzebowania na ciepło sieciowe. Do 2035 roku udział ten może wzrosnąć do 16 proc. To wartości, które pozwalają myśleć o centrach danych nie tylko jako infrastrukturze cyfrowej, ale także jako nowym źródle energii systemowej, będącym częścią nowoczesnego ekosystemu energetycznego. Mamy do czynienia z jednym z nielicznych źródeł ciepła o dużej przewidywalności i całorocznej dostępności. Cyfryzacja może realnie wspierać dekarbonizację polskiego ciepłownictwa”, komentuje Emil Gromadzki, przewodniczący grupy roboczej poświęconej analizie odzysku ciepła w PLDCA.

Wymiar tego potencjału potwierdzają skandynawskie wdrożenia: w Sztokholmie operatorzy potrafią przetransferować do zewnętrznej sieci grzewczej nawet 90 proc. energii odpadowej z chłodzenia maszyn, a w Oslo wolumen z odzysku opiewa na 25 GWh rocznie, pozwalając na ogrzanie blisko 5 tysięcy lokali mieszkalnych.

Popyt na zasoby obliczeniowe wymusza na rynku nieruchomości gruntowną zmianę strategii nabywczych. Obiecujące perspektywy zrównoważonego rozwoju coraz częściej oddalają decyzje deweloperów od wyboru nowych gruntów na rzecz działek z historią energetyczno-przemysłową.

„Tereny poprzemysłowe pozwalają skrócić time-to-market, ograniczyć koszty budowy i wdrożyć bardziej zrównoważone technologie. Czas, moc i infrastruktura stają się nową walutą dekady. Potencjał wykorzystania terenów poprzemysłowych dla rozwoju centrów danych będzie jednym z tematów dyskusji podczas konferencji Gateway Poland 2026. To jeden z najciekawszych i najszybciej rozwijających się kierunków nowej strategii przemysłowej”, podsumowuje Piotr Kowalski.

Przyszłość polskiego segmentu IT oraz kierunki transformacji energetycznej to zagadnienia, które wezmą pod lupę paneliści konferencji Gateway Poland 2026, organizowanej w Warszawie w dniach 14–15 kwietnia 2026 r. Nadchodzące wydarzenie, wspierane merytorycznie przez Ministerstwo Cyfryzacji oraz Ministerstwo Klimatu i Środowiska, stanowić będzie przestrzeń do debaty środowisk zrzeszonych wokół Polskiego Związku Centrów Danych (PLDCA), który reprezentuje blisko 80 podmiotów zaangażowanych w budowę cyfrowego łańcucha dostaw w Polsce.

Dostęp tylko dla zarejestrowanych użytkowników

Aby przeczytać ten artykuł, musisz się zarejestrować i zalogować.

Zarejestruj się teraz

Jeszcze dziesięć lat temu wyłączane z eksploatacji elektrownie, kopalnie i tereny fabryczne oznaczały głównie konieczność przeprowadzenia kosztownej rekultywacji oraz skomplikowanych procesów rewitalizacyjnych. Obecnie takie nieruchomości coraz częściej stanowią bazę dla rozwoju infrastruktury cyfrowej, stając się przestrzenią do budowy nowoczesnych centrów danych, które obsługują technologie chmurowe oraz zaawansowaną sztuczną inteligencję. Zauważalna jest wyraźna zmiana w strategiach inwestorskich. Zamiast tradycyjnego wyburzania i wznoszenia budynków od podstaw, decydenci chętnie stawiają na model adaptive reuse, polegający na adaptacji istniejącej zabudowy na wysokowydajne huby cyfrowe. Eksperci z Polskiego Związku Centrów Danych (PLDCA) zaznaczają, że w dobie skokowego wzrostu zapotrzebowania na energię ze strony systemów AI, to nie sam grunt inwestycyjny stanowi najbardziej pożądany zasób.

„To, co dziś jest niezbędne dla rozwoju centrów danych, to dostęp do mocy energetycznej i infrastruktury przesyłowej oraz łatwość procedur formalnych związanych z decyzjami środowiskowymi i pozwoleniem na budowę. Dlatego inwestorzy coraz częściej patrzą na tereny poprzemysłowe – tam, gdzie istnieją już stacje transformatorowe, linie wysokiego napięcia czy przyłącza, które w nowych lokalizacjach trzeba budować latami. Dodatkowym atutem tego typu lokalizacji w Polsce może być bezpośredni dostęp do sieci ciepłowniczej, umożliwiającej oddanie ciepła z przetwarzania danych”, wskazuje Piotr Kowalski, dyrektor zarządzający Polskiego Związku Centrów Danych (PLDCA).

Niefunkcjonujące już obiekty energetyczne i produkcyjne posiadają atuty niezwykle pożądane w epoce rozwoju sztucznej inteligencji. Konstrukcje te od początku planowano pod kątem przenoszenia potężnych obciążeń – zarówno energetycznych, jak i mechanicznych. Dawne hale maszynowni czy turbinowni charakteryzują się wysokimi kondygnacjami oraz solidnymi fundamentami, co tworzy optymalne warunki do zaaranżowania gęsto upakowanych szaf serwerowych. Parametry tego rzędu są kluczowe dla środowisk obsługujących systemy AI. Współczesne klastry obliczeniowe, bazujące na akceleratorach GPU, wyróżniają się znacznie wyższym zużyciem prądu i większym ciężarem w porównaniu do klasycznej infrastruktury IT. Determinuje to konieczność zapewnienia nie tylko odpowiedniego przydziału mocy przyłączeniowej, ale również odpowiedniej nośności stropów i miejsca niezbędnego do instalacji rozbudowanych układów chłodzących.

„Jednocześnie warto podkreślić, że obecne zużycie energii przez centra danych w Polsce wciąż pozostaje relatywnie niewielkie w skali całego systemu energetycznego. Roczna moc operacyjna rynku wynosi dziś około 200 MW, a zużycie energii oscyluje w granicach 1,7–1,8 TWh, czyli około 1 proc. krajowego zużycia energii elektrycznej. To jednak dopiero początek – wraz z rozwojem chmury i AI zapotrzebowanie będzie szybko rosnąć. Dlatego już dziś centra danych powinny być traktowane jako ważny uczestnik systemu elektroenergetycznego – nie tylko jako odbiorca energii, ale także jako jeden z motorów transformacji energetycznej”, wyjaśnia Krystian Pypłacz, ekspert rynku Data Center, PLDCA.

Szacunki opublikowane przez Polskie Sieci Elektroenergetyczne (PSE) pokazują wyraźnie, że dynamiczna ekspansja usług cyfrowych oraz narzędzi inteligentnych wymusi gwałtowną rozbudowę bazy sprzętowej. Jeden z prognozowanych scenariuszy zakłada, że do 2036 roku łączna moc serwerowni w kraju może osiągnąć pułap 3,1 GW, natomiast w perspektywie długoterminowej do 2040 roku – nawet 5 GW. Przełożyłoby się to na konsumpcję prądu na poziomie 17,4 TWh w 2036 r. oraz 29,4 TWh w 2040 r., stając się istotnym czynnikiem dla stabilności krajowego systemu elektroenergetycznego. Wobec tak projektowanego popytu na zasilanie niezwykłej wagi nabiera zachowana infrastruktura poprzemysłowa, w tym gotowe, a obecnie nierzadko nieużywane, przyłącza wysokiego napięcia.

„W Europie dostęp do mocy przyłączeniowej staje się jednym z głównych ograniczeń rozwoju centrów danych. Lokalizacje z istniejącymi stacjami transformatorowymi czy punktami zasilania mogą skrócić proces inwestycyjny nawet o kilka lat. Jednocześnie wybór modelu adaptive reuse to nie tylko pragmatyzm biznesowy, ale też realizacja strategii ESG. Wykorzystanie istniejącej bryły budynku pozwala na drastyczne obniżenie tzw. śladu węglowego wbudowanego, a to dla inwestorów nowoczesnych centrów danych jest ważnym aspektem. Nie wszystkie obiekty nadają się wprost do instalacji AI, ale te, które mają solidną strukturę i dostęp do przyłączy wysokiego napięcia, stanowią ogromną przewagę inwestycyjną”, podkreśla Piotr Kowalski.

Doskonałą ilustracją krajowej transformacji z sektora konwencjonalnego do gospodarki cyfrowej jest inicjatywa grupy ZE PAK w Koninie. Obszar ten, historycznie zdominowany przez wydobycie węgla brunatnego, obecnie przechodzi intensywne zmiany kierunkowe na rozwiązania niskoemisyjne. W miejscach dawnych odkrywek wybudowano farmy fotowoltaiczne, a pozostałości po wyłączanych z użytku elektrowniach adaptowane są na potrzeby serwerowni. Decydujące znaczenie ma tu odziedziczona sieć przesyłowa, służąca niegdyś do redystrybucji energii z konińskiego zakładu. Kolejnym reprezentatywnym przedsięwzięciem jest projekt potężnego hubu o mocy 500 MW zlokalizowanego w Bełchatowie. To jasny dowód na to, że na zdekabornizowanych obszarach Polski realizuje się wielkoskalowe obiekty (hyperscale). Według raportu Forum Energii 'Ciepło z internetu', inwestycje te – dzięki możliwości połączenia z miejskim systemem ciepłowniczym – mają szansę odegrać rolę filarów w zrównoważonym modelu energetycznym państwa.

Swoistym wzorcem do naśladowania są rozwiązania z Finlandii, zwłaszcza realizacje z Espoo i Helsinek. Tamtejsze centra danych funkcjonują jako integralny element miejskiej infrastruktury energetycznej. Przykładem jest projekt koncernu Fortum zrzeszony z firmą Microsoft, w ramach którego ciepło odpadowe z serwerowni trafia do lokalnej sieci. Docelowo układy te mają zabezpieczać blisko 40% potrzeb grzewczych aglomeracji helsińskiej. Ten nordycki model wymaga ścisłej współpracy z operatorami sieci, którzy przygotowują dawne tereny jako w pełni uzbrojone pakiety deweloperskie – dysponujące zasilaniem, światłowodami i gotowymi rurociągami, sprawiając, że data center staje się ważnym węzłem stabilizującym miejskie ogrzewanie.

Praktyka inwestowania na terenach 'brownfield' umacnia swoją pozycję w całej Europie. Na niemieckim rynku, w obrębie zagłębia technologicznego Hanau (region Frankfurt–Ren–Men), deweloperzy masowo przejmują opuszczone kompleksy produkcyjne oraz obiekty powojskowe na obrzeżach aglomeracji. Na szczególną uwagę zasługuje tam projekt spółki Data4, obejmujący budowę kampusu o docelowej mocy 180 MW, gdzie w procesie budowy fundamentów wykorzystano i poddano recyklingowi aż 94% materiałów z rozbiórki historycznych zabudowań. Równie nowatorskim podejściem charakteryzuje się norweski kompleks Lefdal Mine Datacenter, gdzie infrastrukturę cyfrową wbudowano w nieczynną kopalnię oliwinu. Inwestycja ta stanowi przełom w zakresie naturalnego chłodzenia serwerów, czerpiąc z niskich temperatur podziemnych szybów oraz lodowatych wód z przyległego fiordu. Zbliżonym potencjałem charakteryzują się również zatopione kopalnie węgla, w których stała termika wielkich zbiorników wodnych może radykalnie odciążyć energetycznie układy klimatyzacyjne, pozwalając obiektom na osiąganie rewelacyjnych wskaźników efektywności (PUE rzędu 1,08–1,15).

Adaptacja pofabrycznych zabudowań przynosi także konkretne zyski dla samorządów. Proces przetwarzania ogromnych pakietów danych generuje równolegle pokaźne zasoby ciepła technologicznego, które coraz efektywniej zasila miejskie węzły cieplne, obsługując pobliskie dzielnice mieszkaniowe i strefy biurowe.

„Według raportu grupy roboczej PLDCA potencjał odzysku ciepła z centrów danych w Polsce wyniesie do 2030 roku niemal 19 700 TJ rocznie, czyli ponad 7 proc. krajowego zapotrzebowania na ciepło sieciowe. Do 2035 roku udział ten może wzrosnąć do 16 proc. To wartości, które pozwalają myśleć o centrach danych nie tylko jako infrastrukturze cyfrowej, ale także jako nowym źródle energii systemowej, będącym częścią nowoczesnego ekosystemu energetycznego. Mamy do czynienia z jednym z nielicznych źródeł ciepła o dużej przewidywalności i całorocznej dostępności. Cyfryzacja może realnie wspierać dekarbonizację polskiego ciepłownictwa”, komentuje Emil Gromadzki, przewodniczący grupy roboczej poświęconej analizie odzysku ciepła w PLDCA.

Wymiar tego potencjału potwierdzają skandynawskie wdrożenia: w Sztokholmie operatorzy potrafią przetransferować do zewnętrznej sieci grzewczej nawet 90 proc. energii odpadowej z chłodzenia maszyn, a w Oslo wolumen z odzysku opiewa na 25 GWh rocznie, pozwalając na ogrzanie blisko 5 tysięcy lokali mieszkalnych.

Popyt na zasoby obliczeniowe wymusza na rynku nieruchomości gruntowną zmianę strategii nabywczych. Obiecujące perspektywy zrównoważonego rozwoju coraz częściej oddalają decyzje deweloperów od wyboru nowych gruntów na rzecz działek z historią energetyczno-przemysłową.

„Tereny poprzemysłowe pozwalają skrócić time-to-market, ograniczyć koszty budowy i wdrożyć bardziej zrównoważone technologie. Czas, moc i infrastruktura stają się nową walutą dekady. Potencjał wykorzystania terenów poprzemysłowych dla rozwoju centrów danych będzie jednym z tematów dyskusji podczas konferencji Gateway Poland 2026. To jeden z najciekawszych i najszybciej rozwijających się kierunków nowej strategii przemysłowej”, podsumowuje Piotr Kowalski.

Przyszłość polskiego segmentu IT oraz kierunki transformacji energetycznej to zagadnienia, które wezmą pod lupę paneliści konferencji Gateway Poland 2026, organizowanej w Warszawie w dniach 14–15 kwietnia 2026 r. Nadchodzące wydarzenie, wspierane merytorycznie przez Ministerstwo Cyfryzacji oraz Ministerstwo Klimatu i Środowiska, stanowić będzie przestrzeń do debaty środowisk zrzeszonych wokół Polskiego Związku Centrów Danych (PLDCA), który reprezentuje blisko 80 podmiotów zaangażowanych w budowę cyfrowego łańcucha dostaw w Polsce.

REKLAMA
O autorze
O rozmówcach