Damian Niemir

Kierownik Działu Współpracy i Kontaktów z Otoczeniem w Poznańskim Centrum Superkomputerowo-Sieciowym (PCSS)

BIO Autora

Damian Niemir

Kierownik Działu Współpracy i Kontaktów z Otoczeniem w Poznańskim Centrum Superkomputerowo-Sieciowym (PCSS)

BIO Autora

Damian Niemir

Kierownik Działu Współpracy i Kontaktów z Otoczeniem w Poznańskim Centrum Superkomputerowo-Sieciowym (PCSS)

BIO Autora

Damian Niemir

Kierownik Działu Współpracy i Kontaktów z Otoczeniem w Poznańskim Centrum Superkomputerowo-Sieciowym (PCSS)

BIO Autora

Damian Niemir

Kierownik Działu Współpracy i Kontaktów z Otoczeniem w Poznańskim Centrum Superkomputerowo-Sieciowym (PCSS)

BIO Autora
48

Gdy myślimy o centrum danych, przed oczami stają rzędy serwerów i chłodzenie – perspektywa techniczna. Jednak w świecie HPC i innowacji to już zdecydowanie za mało. Czy możliwym jest, aby jeden ośrodek łączył potrzeby bibliotekarza, rolnika, lekarza i inżyniera, tworząc dla każdego z nich przełomowe rozwiązania? Poznańskie Centrum Superkomputerowo-Sieciowe to dowód na to, że tak. To historia o tym, jak z niewielkiego zespołu narodził się gigant, który dziś jest operatorem jednej z najszybszych sieci naukowych świata (PIONIER) oraz właścicielem potężnego komputera kwantowego opartego na technologii pułapek jonowych. Już nie infrastruktura, a multidyscyplinarność i proaktywny gen B+R stanowią ich największą, niedocenianą wartość.

Gdy myślimy o centrum danych, przed oczami stają rzędy serwerów i chłodzenie – perspektywa techniczna. Jednak w świecie HPC i innowacji to już zdecydowanie za mało. Czy możliwym jest, aby jeden ośrodek łączył potrzeby bibliotekarza, rolnika, lekarza i inżyniera, tworząc dla każdego z nich przełomowe rozwiązania? Poznańskie Centrum Superkomputerowo-Sieciowe to dowód na to, że tak. To historia o tym, jak z niewielkiego zespołu narodził się gigant, który dziś jest operatorem jednej z najszybszych sieci naukowych świata (PIONIER) oraz właścicielem potężnego komputera kwantowego opartego na technologii pułapek jonowych. Już nie infrastruktura, a multidyscyplinarność i proaktywny gen B+R stanowią ich największą, niedocenianą wartość.

Gdy myślimy o centrum danych, przed oczami stają rzędy serwerów i chłodzenie – perspektywa techniczna. Jednak w świecie HPC i innowacji to już zdecydowanie za mało. Czy możliwym jest, aby jeden ośrodek łączył potrzeby bibliotekarza, rolnika, lekarza i inżyniera, tworząc dla każdego z nich przełomowe rozwiązania? Poznańskie Centrum Superkomputerowo-Sieciowe to dowód na to, że tak. To historia o tym, jak z niewielkiego zespołu narodził się gigant, który dziś jest operatorem jednej z najszybszych sieci naukowych świata (PIONIER) oraz właścicielem potężnego komputera kwantowego opartego na technologii pułapek jonowych. Już nie infrastruktura, a multidyscyplinarność i proaktywny gen B+R stanowią ich największą, niedocenianą wartość.

Gdy myślimy o centrum danych, przed oczami stają rzędy serwerów i chłodzenie – perspektywa techniczna. Jednak w świecie HPC i innowacji to już zdecydowanie za mało. Czy możliwym jest, aby jeden ośrodek łączył potrzeby bibliotekarza, rolnika, lekarza i inżyniera, tworząc dla każdego z nich przełomowe rozwiązania? Poznańskie Centrum Superkomputerowo-Sieciowe to dowód na to, że tak. To historia o tym, jak z niewielkiego zespołu narodził się gigant, który dziś jest operatorem jednej z najszybszych sieci naukowych świata (PIONIER) oraz właścicielem potężnego komputera kwantowego opartego na technologii pułapek jonowych. Już nie infrastruktura, a multidyscyplinarność i proaktywny gen B+R stanowią ich największą, niedocenianą wartość.

Gdy myślimy o centrum danych, przed oczami stają rzędy serwerów i chłodzenie – perspektywa techniczna. Jednak w świecie HPC i innowacji to już zdecydowanie za mało. Czy możliwym jest, aby jeden ośrodek łączył potrzeby bibliotekarza, rolnika, lekarza i inżyniera, tworząc dla każdego z nich przełomowe rozwiązania? Poznańskie Centrum Superkomputerowo-Sieciowe to dowód na to, że tak. To historia o tym, jak z niewielkiego zespołu narodził się gigant, który dziś jest operatorem jednej z najszybszych sieci naukowych świata (PIONIER) oraz właścicielem potężnego komputera kwantowego opartego na technologii pułapek jonowych. Już nie infrastruktura, a multidyscyplinarność i proaktywny gen B+R stanowią ich największą, niedocenianą wartość.

49
„Jeśli miałbym wskazać naszą największą wartość, to jest nią właśnie multidyscyplinarność. Zajmujemy się bardzo wieloma, często odległymi od siebie dziedzinami. To jest nasza unikalna cecha (w skali Europy, jak również świata). Pozwala to spojrzeć na realizowane działania z różnych perspektyw, wyzwalając tym samym kolejne innowacje.”
„Jeśli miałbym wskazać naszą największą wartość, to jest nią właśnie multidyscyplinarność. Zajmujemy się bardzo wieloma, często odległymi od siebie dziedzinami. To jest nasza unikalna cecha (w skali Europy, jak również świata). Pozwala to spojrzeć na realizowane działania z różnych perspektyw, wyzwalając tym samym kolejne innowacje.”
„Jeśli miałbym wskazać naszą największą wartość, to jest nią właśnie multidyscyplinarność. Zajmujemy się bardzo wieloma, często odległymi od siebie dziedzinami. To jest nasza unikalna cecha (w skali Europy, jak również świata). Pozwala to spojrzeć na realizowane działania z różnych perspektyw, wyzwalając tym samym kolejne innowacje.”
„Jeśli miałbym wskazać naszą największą wartość, to jest nią właśnie multidyscyplinarność. Zajmujemy się bardzo wieloma, często odległymi od siebie dziedzinami. To jest nasza unikalna cecha (w skali Europy, jak również świata). Pozwala to spojrzeć na realizowane działania z różnych perspektyw, wyzwalając tym samym kolejne innowacje.”
„Jeśli miałbym wskazać naszą największą wartość, to jest nią właśnie multidyscyplinarność. Zajmujemy się bardzo wieloma, często odległymi od siebie dziedzinami. To jest nasza unikalna cecha (w skali Europy, jak również świata). Pozwala to spojrzeć na realizowane działania z różnych perspektyw, wyzwalając tym samym kolejne innowacje.”
„Jeśli miałbym wskazać naszą największą wartość, to jest nią właśnie multidyscyplinarność. Zajmujemy się bardzo wieloma, często odległymi od siebie dziedzinami. To jest nasza unikalna cecha (w skali Europy, jak również świata). Pozwala to spojrzeć na realizowane działania z różnych perspektyw, wyzwalając tym samym kolejne innowacje.”
50
Komentarz do artykułu
Pokaż bio

Według raportu Global Quantum Computing Market (2024–2029), rynek obliczeń kwantowych ma wzrosnąć z $1,46 mld w 2024 r. do $4,76 mld do 2029 r., osiągając tym samym CAGR na poziomie 26,6%. Kluczowym czynnikiem wzrostu jest potrzeba bezpieczeństwa danych (kryptografia kwantowa) oraz zastosowania w medycynie i farmacji. Jednocześnie, według rankingu TOP500, Polska od 2024 r. posiada co najmniej kilka superkomputerów na liście najpotężniejszych maszyn świata, z których dwa należą do PCSS. Pozycjonuje to krajowy sektor HPC jako kluczowego gracza w europejskim wyścigu technologicznym, zwłaszcza w kontekście inicjatywy EuroHPC. (źródło: Mordor Intelligence, TOP500, EuroHPC).

Według raportu Global Quantum Computing Market (2024–2029), rynek obliczeń kwantowych ma wzrosnąć z $1,46 mld w 2024 r. do $4,76 mld do 2029 r., osiągając tym samym CAGR na poziomie 26,6%. Kluczowym czynnikiem wzrostu jest potrzeba bezpieczeństwa danych (kryptografia kwantowa) oraz zastosowania w medycynie i farmacji. Jednocześnie, według rankingu TOP500, Polska od 2024 r. posiada co najmniej kilka superkomputerów na liście najpotężniejszych maszyn świata, z których dwa należą do PCSS. Pozycjonuje to krajowy sektor HPC jako kluczowego gracza w europejskim wyścigu technologicznym, zwłaszcza w kontekście inicjatywy EuroHPC. (źródło: Mordor Intelligence, TOP500, EuroHPC).

Według raportu Global Quantum Computing Market (2024–2029), rynek obliczeń kwantowych ma wzrosnąć z $1,46 mld w 2024 r. do $4,76 mld do 2029 r., osiągając tym samym CAGR na poziomie 26,6%. Kluczowym czynnikiem wzrostu jest potrzeba bezpieczeństwa danych (kryptografia kwantowa) oraz zastosowania w medycynie i farmacji. Jednocześnie, według rankingu TOP500, Polska od 2024 r. posiada co najmniej kilka superkomputerów na liście najpotężniejszych maszyn świata, z których dwa należą do PCSS. Pozycjonuje to krajowy sektor HPC jako kluczowego gracza w europejskim wyścigu technologicznym, zwłaszcza w kontekście inicjatywy EuroHPC. (źródło: Mordor Intelligence, TOP500, EuroHPC).

Według raportu Global Quantum Computing Market (2024–2029), rynek obliczeń kwantowych ma wzrosnąć z $1,46 mld w 2024 r. do $4,76 mld do 2029 r., osiągając tym samym CAGR na poziomie 26,6%. Kluczowym czynnikiem wzrostu jest potrzeba bezpieczeństwa danych (kryptografia kwantowa) oraz zastosowania w medycynie i farmacji. Jednocześnie, według rankingu TOP500, Polska od 2024 r. posiada co najmniej kilka superkomputerów na liście najpotężniejszych maszyn świata, z których dwa należą do PCSS. Pozycjonuje to krajowy sektor HPC jako kluczowego gracza w europejskim wyścigu technologicznym, zwłaszcza w kontekście inicjatywy EuroHPC. (źródło: Mordor Intelligence, TOP500, EuroHPC).

Według raportu Global Quantum Computing Market (2024–2029), rynek obliczeń kwantowych ma wzrosnąć z $1,46 mld w 2024 r. do $4,76 mld do 2029 r., osiągając tym samym CAGR na poziomie 26,6%. Kluczowym czynnikiem wzrostu jest potrzeba bezpieczeństwa danych (kryptografia kwantowa) oraz zastosowania w medycynie i farmacji. Jednocześnie, według rankingu TOP500, Polska od 2024 r. posiada co najmniej kilka superkomputerów na liście najpotężniejszych maszyn świata, z których dwa należą do PCSS. Pozycjonuje to krajowy sektor HPC jako kluczowego gracza w europejskim wyścigu technologicznym, zwłaszcza w kontekście inicjatywy EuroHPC. (źródło: Mordor Intelligence, TOP500, EuroHPC).

51
Komentarz do artykułu
Dominik Dziarczykowski
Market Development Manager, Vertiv
Pokaż bio

PARTNER WYWIADU Z PCSS

R&D jako fundament przyszłości centrów danych 
– od efektywności energetycznej po odporność na AI. 

Dlaczego branża Data Center musi współpracować z nauką?  

Nowoczesne Data Center to centra technologii

Vertiv jest globalnym liderem, dostarczającym infrastrukturę krytyczną dla centrów danych. Od początku istnienia firmy nasze działy R&D projektowały i rozwijały technologie dedykowane dla rynku Data Center. Te zasady nie uległy zmianie, gdyż wszystkie nasze rozwiązania mają przynosić korzyści naszym klientom. Zespoły naszych inżynierów R&D, projektując systemy, biorą pod uwagę aspekty techniczne, biznesowe, ale także środowiskowe i legislacyjne, aby to, co zaproponujemy klientom, zwiększało wydajność, bezpieczeństwo oraz przynosiło korzyści finansowe.

Obecny rynek centrów danych rozwija się bardzo dynamicznie dzięki rewolucji w dziedzinie sztucznej inteligencji. Skala i tempo tego wzrostu stanowią największe wyzwania, ponieważ postęp technologiczny wymaga znacznie szybszego opracowywania nowych produktów, a wzajemne zależności między różnymi technologiami zmuszają dostawców rozwiązań, takich jak Vertiv, do przyjęcia podejścia systemowego i projektowania komponentów infrastruktury, które płynnie współpracują ze sobą pod względem elektrycznym, mechanicznym, strukturalnym i cyfrowym.

Współpraca z pionierami popularyzuje innowacje

Instytucje badawcze, takie jak Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS), zazwyczaj mają dostęp do nowoczesnych technologii znacznie wcześniej niż instytucje komercyjne. Wpływa na to m.in. współpraca z producentami rozwijającymi nowe technologie, kiedy to można przetestować nowe funkcjonalności w środowiskach dysponujących doświadczonymi zasobami, otwartymi umysłami oraz nieszablonowym podejściem do nowych rozwiązań. 

Mogę przytoczyć kilka przykładów z mojego doświadczenia.

Technologia AI, która w tej chwili opanowuje centra danych, wywodzi się z technologii High Performance Computing, GPU intensive. O ile dobrze pamiętam, systemy z akceleratorami GPU były instalowane (oczywiście w dużo mniejszej skali) w PCSS, lata temu. 

Podobnie z technologią chłodzenia cieczą (Liquid Cooling). Aby poprawnie schłodzić rozwiązania wysokiej gęstości, takie jak AI, chłodzenie cieczą staje się koniecznością i wkracza do serwerowni komercyjnych. Dla instytucji takich jak PCSS, nie jest to nowość, albowiem pierwsze instalacje tego typu były implementowane w Poznaniu już kilkanaście lat temu. 

To tylko dwa przykłady, jednak mogę zaryzykować stwierdzenie, że technologia przetestowana i zaakceptowana przez ośrodki badawcze często staje się standardem dla branży IT oraz Data Center.

Testowanie technologii przyszłości dostępne dla rynku komercyjnego 

Komercyjne centra danych testują nowoczesne technologie na kilka sposobów. Bardzo często dostawcy rozwiązań, tacy jak Vertiv, wspierają klientów, np. poprzez wspólne opracowywanie portfolio nowych systemów dostosowanych do ich konkretnych potrzeb. Przeprowadzamy również różnego rodzaju testy, w tym podczas procesu produkcji (np. Factory Whitness oraz Acceptance Tests), aby zapewnić klientów, że otrzymają zamówioną funkcjonalność i wydajność.

 W Vertiv mamy 12 centrów obsługi klienta (Customer Experience Centers) w regionie EMEA i 27 na całym świecie, które zapewniają możliwości testowania nowych produktów. Zapewniamy również naszym klientom wsparcie w postaci projektów „Proof of Concept” lub „Demo Lab”, w ramach których wspólnie pracujemy nad potwierdzeniem określonych założeń (np. zwiększeniem efektywności energetycznej lub obniżeniem kosztów użytkowania).

.

PARTNER WYWIADU Z PCSS

R&D jako fundament przyszłości centrów danych 
– od efektywności energetycznej po odporność na AI. 

Dlaczego branża Data Center musi współpracować z nauką?  

Nowoczesne Data Center to centra technologii

Vertiv jest globalnym liderem, dostarczającym infrastrukturę krytyczną dla centrów danych. Od początku istnienia firmy nasze działy R&D projektowały i rozwijały technologie dedykowane dla rynku Data Center. Te zasady nie uległy zmianie, gdyż wszystkie nasze rozwiązania mają przynosić korzyści naszym klientom. Zespoły naszych inżynierów R&D, projektując systemy, biorą pod uwagę aspekty techniczne, biznesowe, ale także środowiskowe i legislacyjne, aby to, co zaproponujemy klientom, zwiększało wydajność, bezpieczeństwo oraz przynosiło korzyści finansowe.

Obecny rynek centrów danych rozwija się bardzo dynamicznie dzięki rewolucji w dziedzinie sztucznej inteligencji. Skala i tempo tego wzrostu stanowią największe wyzwania, ponieważ postęp technologiczny wymaga znacznie szybszego opracowywania nowych produktów, a wzajemne zależności między różnymi technologiami zmuszają dostawców rozwiązań, takich jak Vertiv, do przyjęcia podejścia systemowego i projektowania komponentów infrastruktury, które płynnie współpracują ze sobą pod względem elektrycznym, mechanicznym, strukturalnym i cyfrowym.

Współpraca z pionierami popularyzuje innowacje

Instytucje badawcze, takie jak Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS), zazwyczaj mają dostęp do nowoczesnych technologii znacznie wcześniej niż instytucje komercyjne. Wpływa na to m.in. współpraca z producentami rozwijającymi nowe technologie, kiedy to można przetestować nowe funkcjonalności w środowiskach dysponujących doświadczonymi zasobami, otwartymi umysłami oraz nieszablonowym podejściem do nowych rozwiązań. 

Mogę przytoczyć kilka przykładów z mojego doświadczenia.

Technologia AI, która w tej chwili opanowuje centra danych, wywodzi się z technologii High Performance Computing, GPU intensive. O ile dobrze pamiętam, systemy z akceleratorami GPU były instalowane (oczywiście w dużo mniejszej skali) w PCSS, lata temu. 

Podobnie z technologią chłodzenia cieczą (Liquid Cooling). Aby poprawnie schłodzić rozwiązania wysokiej gęstości, takie jak AI, chłodzenie cieczą staje się koniecznością i wkracza do serwerowni komercyjnych. Dla instytucji takich jak PCSS, nie jest to nowość, albowiem pierwsze instalacje tego typu były implementowane w Poznaniu już kilkanaście lat temu. 

To tylko dwa przykłady, jednak mogę zaryzykować stwierdzenie, że technologia przetestowana i zaakceptowana przez ośrodki badawcze często staje się standardem dla branży IT oraz Data Center.

Testowanie technologii przyszłości dostępne dla rynku komercyjnego 

Komercyjne centra danych testują nowoczesne technologie na kilka sposobów. Bardzo często dostawcy rozwiązań, tacy jak Vertiv, wspierają klientów, np. poprzez wspólne opracowywanie portfolio nowych systemów dostosowanych do ich konkretnych potrzeb. Przeprowadzamy również różnego rodzaju testy, w tym podczas procesu produkcji (np. Factory Whitness oraz Acceptance Tests), aby zapewnić klientów, że otrzymają zamówioną funkcjonalność i wydajność.

 W Vertiv mamy 12 centrów obsługi klienta (Customer Experience Centers) w regionie EMEA i 27 na całym świecie, które zapewniają możliwości testowania nowych produktów. Zapewniamy również naszym klientom wsparcie w postaci projektów „Proof of Concept” lub „Demo Lab”, w ramach których wspólnie pracujemy nad potwierdzeniem określonych założeń (np. zwiększeniem efektywności energetycznej lub obniżeniem kosztów użytkowania).

.

PARTNER WYWIADU Z PCSS

R&D jako fundament przyszłości centrów danych 
– od efektywności energetycznej po odporność na AI. 

Dlaczego branża Data Center musi współpracować z nauką?  

Nowoczesne Data Center to centra technologii

Vertiv jest globalnym liderem, dostarczającym infrastrukturę krytyczną dla centrów danych. Od początku istnienia firmy nasze działy R&D projektowały i rozwijały technologie dedykowane dla rynku Data Center. Te zasady nie uległy zmianie, gdyż wszystkie nasze rozwiązania mają przynosić korzyści naszym klientom. Zespoły naszych inżynierów R&D, projektując systemy, biorą pod uwagę aspekty techniczne, biznesowe, ale także środowiskowe i legislacyjne, aby to, co zaproponujemy klientom, zwiększało wydajność, bezpieczeństwo oraz przynosiło korzyści finansowe.

Obecny rynek centrów danych rozwija się bardzo dynamicznie dzięki rewolucji w dziedzinie sztucznej inteligencji. Skala i tempo tego wzrostu stanowią największe wyzwania, ponieważ postęp technologiczny wymaga znacznie szybszego opracowywania nowych produktów, a wzajemne zależności między różnymi technologiami zmuszają dostawców rozwiązań, takich jak Vertiv, do przyjęcia podejścia systemowego i projektowania komponentów infrastruktury, które płynnie współpracują ze sobą pod względem elektrycznym, mechanicznym, strukturalnym i cyfrowym.

Współpraca z pionierami popularyzuje innowacje

Instytucje badawcze, takie jak Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS), zazwyczaj mają dostęp do nowoczesnych technologii znacznie wcześniej niż instytucje komercyjne. Wpływa na to m.in. współpraca z producentami rozwijającymi nowe technologie, kiedy to można przetestować nowe funkcjonalności w środowiskach dysponujących doświadczonymi zasobami, otwartymi umysłami oraz nieszablonowym podejściem do nowych rozwiązań. 

Mogę przytoczyć kilka przykładów z mojego doświadczenia.

Technologia AI, która w tej chwili opanowuje centra danych, wywodzi się z technologii High Performance Computing, GPU intensive. O ile dobrze pamiętam, systemy z akceleratorami GPU były instalowane (oczywiście w dużo mniejszej skali) w PCSS, lata temu. 

Podobnie z technologią chłodzenia cieczą (Liquid Cooling). Aby poprawnie schłodzić rozwiązania wysokiej gęstości, takie jak AI, chłodzenie cieczą staje się koniecznością i wkracza do serwerowni komercyjnych. Dla instytucji takich jak PCSS, nie jest to nowość, albowiem pierwsze instalacje tego typu były implementowane w Poznaniu już kilkanaście lat temu. 

To tylko dwa przykłady, jednak mogę zaryzykować stwierdzenie, że technologia przetestowana i zaakceptowana przez ośrodki badawcze często staje się standardem dla branży IT oraz Data Center.

Testowanie technologii przyszłości dostępne dla rynku komercyjnego 

Komercyjne centra danych testują nowoczesne technologie na kilka sposobów. Bardzo często dostawcy rozwiązań, tacy jak Vertiv, wspierają klientów, np. poprzez wspólne opracowywanie portfolio nowych systemów dostosowanych do ich konkretnych potrzeb. Przeprowadzamy również różnego rodzaju testy, w tym podczas procesu produkcji (np. Factory Whitness oraz Acceptance Tests), aby zapewnić klientów, że otrzymają zamówioną funkcjonalność i wydajność.

 W Vertiv mamy 12 centrów obsługi klienta (Customer Experience Centers) w regionie EMEA i 27 na całym świecie, które zapewniają możliwości testowania nowych produktów. Zapewniamy również naszym klientom wsparcie w postaci projektów „Proof of Concept” lub „Demo Lab”, w ramach których wspólnie pracujemy nad potwierdzeniem określonych założeń (np. zwiększeniem efektywności energetycznej lub obniżeniem kosztów użytkowania).

.

PARTNER WYWIADU Z PCSS

R&D jako fundament przyszłości centrów danych 
– od efektywności energetycznej po odporność na AI. 

Dlaczego branża Data Center musi współpracować z nauką?  

Nowoczesne Data Center to centra technologii

Vertiv jest globalnym liderem, dostarczającym infrastrukturę krytyczną dla centrów danych. Od początku istnienia firmy nasze działy R&D projektowały i rozwijały technologie dedykowane dla rynku Data Center. Te zasady nie uległy zmianie, gdyż wszystkie nasze rozwiązania mają przynosić korzyści naszym klientom. Zespoły naszych inżynierów R&D, projektując systemy, biorą pod uwagę aspekty techniczne, biznesowe, ale także środowiskowe i legislacyjne, aby to, co zaproponujemy klientom, zwiększało wydajność, bezpieczeństwo oraz przynosiło korzyści finansowe.

Obecny rynek centrów danych rozwija się bardzo dynamicznie dzięki rewolucji w dziedzinie sztucznej inteligencji. Skala i tempo tego wzrostu stanowią największe wyzwania, ponieważ postęp technologiczny wymaga znacznie szybszego opracowywania nowych produktów, a wzajemne zależności między różnymi technologiami zmuszają dostawców rozwiązań, takich jak Vertiv, do przyjęcia podejścia systemowego i projektowania komponentów infrastruktury, które płynnie współpracują ze sobą pod względem elektrycznym, mechanicznym, strukturalnym i cyfrowym.

Współpraca z pionierami popularyzuje innowacje

Instytucje badawcze, takie jak Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS), zazwyczaj mają dostęp do nowoczesnych technologii znacznie wcześniej niż instytucje komercyjne. Wpływa na to m.in. współpraca z producentami rozwijającymi nowe technologie, kiedy to można przetestować nowe funkcjonalności w środowiskach dysponujących doświadczonymi zasobami, otwartymi umysłami oraz nieszablonowym podejściem do nowych rozwiązań. 

Mogę przytoczyć kilka przykładów z mojego doświadczenia.

Technologia AI, która w tej chwili opanowuje centra danych, wywodzi się z technologii High Performance Computing, GPU intensive. O ile dobrze pamiętam, systemy z akceleratorami GPU były instalowane (oczywiście w dużo mniejszej skali) w PCSS, lata temu. 

Podobnie z technologią chłodzenia cieczą (Liquid Cooling). Aby poprawnie schłodzić rozwiązania wysokiej gęstości, takie jak AI, chłodzenie cieczą staje się koniecznością i wkracza do serwerowni komercyjnych. Dla instytucji takich jak PCSS, nie jest to nowość, albowiem pierwsze instalacje tego typu były implementowane w Poznaniu już kilkanaście lat temu. 

To tylko dwa przykłady, jednak mogę zaryzykować stwierdzenie, że technologia przetestowana i zaakceptowana przez ośrodki badawcze często staje się standardem dla branży IT oraz Data Center.

Testowanie technologii przyszłości dostępne dla rynku komercyjnego 

Komercyjne centra danych testują nowoczesne technologie na kilka sposobów. Bardzo często dostawcy rozwiązań, tacy jak Vertiv, wspierają klientów, np. poprzez wspólne opracowywanie portfolio nowych systemów dostosowanych do ich konkretnych potrzeb. Przeprowadzamy również różnego rodzaju testy, w tym podczas procesu produkcji (np. Factory Whitness oraz Acceptance Tests), aby zapewnić klientów, że otrzymają zamówioną funkcjonalność i wydajność.

 W Vertiv mamy 12 centrów obsługi klienta (Customer Experience Centers) w regionie EMEA i 27 na całym świecie, które zapewniają możliwości testowania nowych produktów. Zapewniamy również naszym klientom wsparcie w postaci projektów „Proof of Concept” lub „Demo Lab”, w ramach których wspólnie pracujemy nad potwierdzeniem określonych założeń (np. zwiększeniem efektywności energetycznej lub obniżeniem kosztów użytkowania).

.

PARTNER WYWIADU Z PCSS

R&D jako fundament przyszłości centrów danych 
– od efektywności energetycznej po odporność na AI. 

Dlaczego branża Data Center musi współpracować z nauką?  

Nowoczesne Data Center to centra technologii

Vertiv jest globalnym liderem, dostarczającym infrastrukturę krytyczną dla centrów danych. Od początku istnienia firmy nasze działy R&D projektowały i rozwijały technologie dedykowane dla rynku Data Center. Te zasady nie uległy zmianie, gdyż wszystkie nasze rozwiązania mają przynosić korzyści naszym klientom. Zespoły naszych inżynierów R&D, projektując systemy, biorą pod uwagę aspekty techniczne, biznesowe, ale także środowiskowe i legislacyjne, aby to, co zaproponujemy klientom, zwiększało wydajność, bezpieczeństwo oraz przynosiło korzyści finansowe.

Obecny rynek centrów danych rozwija się bardzo dynamicznie dzięki rewolucji w dziedzinie sztucznej inteligencji. Skala i tempo tego wzrostu stanowią największe wyzwania, ponieważ postęp technologiczny wymaga znacznie szybszego opracowywania nowych produktów, a wzajemne zależności między różnymi technologiami zmuszają dostawców rozwiązań, takich jak Vertiv, do przyjęcia podejścia systemowego i projektowania komponentów infrastruktury, które płynnie współpracują ze sobą pod względem elektrycznym, mechanicznym, strukturalnym i cyfrowym.

Współpraca z pionierami popularyzuje innowacje

Instytucje badawcze, takie jak Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS), zazwyczaj mają dostęp do nowoczesnych technologii znacznie wcześniej niż instytucje komercyjne. Wpływa na to m.in. współpraca z producentami rozwijającymi nowe technologie, kiedy to można przetestować nowe funkcjonalności w środowiskach dysponujących doświadczonymi zasobami, otwartymi umysłami oraz nieszablonowym podejściem do nowych rozwiązań. 

Mogę przytoczyć kilka przykładów z mojego doświadczenia.

Technologia AI, która w tej chwili opanowuje centra danych, wywodzi się z technologii High Performance Computing, GPU intensive. O ile dobrze pamiętam, systemy z akceleratorami GPU były instalowane (oczywiście w dużo mniejszej skali) w PCSS, lata temu. 

Podobnie z technologią chłodzenia cieczą (Liquid Cooling). Aby poprawnie schłodzić rozwiązania wysokiej gęstości, takie jak AI, chłodzenie cieczą staje się koniecznością i wkracza do serwerowni komercyjnych. Dla instytucji takich jak PCSS, nie jest to nowość, albowiem pierwsze instalacje tego typu były implementowane w Poznaniu już kilkanaście lat temu. 

To tylko dwa przykłady, jednak mogę zaryzykować stwierdzenie, że technologia przetestowana i zaakceptowana przez ośrodki badawcze często staje się standardem dla branży IT oraz Data Center.

Testowanie technologii przyszłości dostępne dla rynku komercyjnego 

Komercyjne centra danych testują nowoczesne technologie na kilka sposobów. Bardzo często dostawcy rozwiązań, tacy jak Vertiv, wspierają klientów, np. poprzez wspólne opracowywanie portfolio nowych systemów dostosowanych do ich konkretnych potrzeb. Przeprowadzamy również różnego rodzaju testy, w tym podczas procesu produkcji (np. Factory Whitness oraz Acceptance Tests), aby zapewnić klientów, że otrzymają zamówioną funkcjonalność i wydajność.

 W Vertiv mamy 12 centrów obsługi klienta (Customer Experience Centers) w regionie EMEA i 27 na całym świecie, które zapewniają możliwości testowania nowych produktów. Zapewniamy również naszym klientom wsparcie w postaci projektów „Proof of Concept” lub „Demo Lab”, w ramach których wspólnie pracujemy nad potwierdzeniem określonych założeń (np. zwiększeniem efektywności energetycznej lub obniżeniem kosztów użytkowania).

.

PARTNER WYWIADU Z PCSS

R&D jako fundament przyszłości centrów danych 
– od efektywności energetycznej po odporność na AI. 

Dlaczego branża Data Center musi współpracować z nauką?  

Nowoczesne Data Center to centra technologii

Vertiv jest globalnym liderem, dostarczającym infrastrukturę krytyczną dla centrów danych. Od początku istnienia firmy nasze działy R&D projektowały i rozwijały technologie dedykowane dla rynku Data Center. Te zasady nie uległy zmianie, gdyż wszystkie nasze rozwiązania mają przynosić korzyści naszym klientom. Zespoły naszych inżynierów R&D, projektując systemy, biorą pod uwagę aspekty techniczne, biznesowe, ale także środowiskowe i legislacyjne, aby to, co zaproponujemy klientom, zwiększało wydajność, bezpieczeństwo oraz przynosiło korzyści finansowe.

Obecny rynek centrów danych rozwija się bardzo dynamicznie dzięki rewolucji w dziedzinie sztucznej inteligencji. Skala i tempo tego wzrostu stanowią największe wyzwania, ponieważ postęp technologiczny wymaga znacznie szybszego opracowywania nowych produktów, a wzajemne zależności między różnymi technologiami zmuszają dostawców rozwiązań, takich jak Vertiv, do przyjęcia podejścia systemowego i projektowania komponentów infrastruktury, które płynnie współpracują ze sobą pod względem elektrycznym, mechanicznym, strukturalnym i cyfrowym.

Współpraca z pionierami popularyzuje innowacje

Instytucje badawcze, takie jak Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS), zazwyczaj mają dostęp do nowoczesnych technologii znacznie wcześniej niż instytucje komercyjne. Wpływa na to m.in. współpraca z producentami rozwijającymi nowe technologie, kiedy to można przetestować nowe funkcjonalności w środowiskach dysponujących doświadczonymi zasobami, otwartymi umysłami oraz nieszablonowym podejściem do nowych rozwiązań. 

Mogę przytoczyć kilka przykładów z mojego doświadczenia.

Technologia AI, która w tej chwili opanowuje centra danych, wywodzi się z technologii High Performance Computing, GPU intensive. O ile dobrze pamiętam, systemy z akceleratorami GPU były instalowane (oczywiście w dużo mniejszej skali) w PCSS, lata temu. 

Podobnie z technologią chłodzenia cieczą (Liquid Cooling). Aby poprawnie schłodzić rozwiązania wysokiej gęstości, takie jak AI, chłodzenie cieczą staje się koniecznością i wkracza do serwerowni komercyjnych. Dla instytucji takich jak PCSS, nie jest to nowość, albowiem pierwsze instalacje tego typu były implementowane w Poznaniu już kilkanaście lat temu. 

To tylko dwa przykłady, jednak mogę zaryzykować stwierdzenie, że technologia przetestowana i zaakceptowana przez ośrodki badawcze często staje się standardem dla branży IT oraz Data Center.

Testowanie technologii przyszłości dostępne dla rynku komercyjnego 

Komercyjne centra danych testują nowoczesne technologie na kilka sposobów. Bardzo często dostawcy rozwiązań, tacy jak Vertiv, wspierają klientów, np. poprzez wspólne opracowywanie portfolio nowych systemów dostosowanych do ich konkretnych potrzeb. Przeprowadzamy również różnego rodzaju testy, w tym podczas procesu produkcji (np. Factory Whitness oraz Acceptance Tests), aby zapewnić klientów, że otrzymają zamówioną funkcjonalność i wydajność.

 W Vertiv mamy 12 centrów obsługi klienta (Customer Experience Centers) w regionie EMEA i 27 na całym świecie, które zapewniają możliwości testowania nowych produktów. Zapewniamy również naszym klientom wsparcie w postaci projektów „Proof of Concept” lub „Demo Lab”, w ramach których wspólnie pracujemy nad potwierdzeniem określonych założeń (np. zwiększeniem efektywności energetycznej lub obniżeniem kosztów użytkowania).

.

52
Obiekty

Superkomputer, sieć PIONIER, Fabryka AI oraz najpotężniejszy w Europie komputer kwantowy – ta lista osiągnięć PCSS mogłaby sugerować, że mówimy o jednostce czysto hardware’owej, ale to byłoby błędem. Z rozmowy z liderami PCSS wyłania się obraz instytucji, która sprzedaje nie gigahertze i terabajty, lecz unikalne know-how – scenariusze i zdolność do łączenia pozornie odległych światów. To właśnie dzięki tej synergii polskie dziedzictwo kulturowe jest tak dobrze widoczne w Europie, a lekarze mają dostęp do AI w celu diagnozowania chorób.

Zastanawiamy się, czy ten model – polegający na proaktywnym wypełnianiu rynkowych nisz, zamiast biernym wynajmie infrastruktury – nie jest przyszłością dla całej branży data center? Podczas gdy komercyjni operatorzy borykają się z pozyskaniem klientów na AI, PCSS buduje ekosystem, który ma stymulować popyt. Czy polski sektor nieruchomości i FM jest gotowy, by przekształcić swoje wyzwania (zarządzanie energią, optymalizacja workplace) w projekty B+R realizowane we współpracy z takimi ośrodkami? Wszak innowacja jest dziś zasobem równie ważnym, jak prąd i chłodzenie.

53
MENU

Spis treści

Wstęp
9

Relacja z Kongresu Obiektów 2025

Redakcja
15
Hiperlokalność - przeprogramowanie wartości

Kiedy nieruchomość staje się ekosystemem

Krzysztof Kogut
Redaktor naczelny magazynu Obiekty
19
Odporne portfele nieruchomości w dynamicznym świecie

Barometr „Obiektów” 

Facility management w obliczu wyzwań 2026 r.
Bartłomiej Jęchorek
26

Niewidzialne piękno i pęknięta rura

Waldemar Olbryk
Chief Executive Officer, Archicom SA
31

Mniej danych, więcej odpowiedzialności 

Jak uproszczenia ESRS redefiniują konkurencyjność biznesu?
Katarzyna Chwalbińska - Kusek
Partner, Head of ESG Advisory Baker Tilly TPA
34

Czas aktywnych graczy

Tomek Kwiatkowski
Senior consultant, Westbridge Advisory
40
Masterclass z zarządzania wartością. Jak przekuć „vintage” w rynkową przewagę

V Tower definitywnie żegna Wartę Tower

Karol Klin
45

Pop-up oraz przestrzeń wystawiennicza (witryna) w przestrzeni najemców jako niewykorzystany potencjał contemporary architecture, który oddziałuje na zmysły oraz potrzeby zakupowe - analiza

Patrycja Stasiak
48

Więcej niż Superkomputer

Tomasz Parkoła
Director of Network Services Division at PCSS
Damian Niemir
Kierownik Działu Współpracy i Kontaktów z Otoczeniem w Poznańskim Centrum Superkomputerowo-Sieciowym (PCSS)
54

Nie było buforu na pomyłkę

Inżynieryjne kulisy Office House – pierwszego ukończonego etapu superkwartału  Towarowa22.
Kamil Milner
PROJECT MANAGER, AC Group
61

Planowanie i przeprowadzanie procesu zakupowego w obszarze Facility Management, czyli w jaki sposób budować wartość i trwałe relacje

Karolina Wielądek
Dyrektora Biura w Polskiej Radzie Facility Management
Seweryna Afanasjew
RICS
66

Happy people make business. Nowa energia w technicznym FM

Marta Stańczak na czele SPIE Building Solutions
Marta Stańczak
CEO – SPIE Building Solutions
71

Zarządzanie właścicielskie

Gdy technologia uwalnia czas na relacje
Mariola Mazur-Szeląg
Property Management Director Central & Northern Poland
Przemysław Kiwer
Property Management Director Southern Poland w Globalworth
76

Facility Management w erze hiperlokalności

Michał Maciejczak
Head of Facilities Management w Kaufland Polska
82

Nowa rola asset management w logistyce

Agnieszka Niezgodzka
Head of Asset Management
85

Ofensywa efektywności

Jerzy Wójcik
CEO JWA
91

Bliskość, która działa

Małgorzata Furtak
Dyrektorka Biura BHP & Wellbeing, Psycholożka
96

Ile metrów na jakie doświadczenie? Czyli kiedy employee experience zaczyna być business value

Patrycja Pachowska
Global Workplace Manager, ZnanyLekarz.pl
99

Nowoczesne zarządzanie powierzchnią biurową

jak inteligentne systemy rezerwacji zmieniają efektywność i koszty workplace?
Maciej Lukas
Co-Founder & CEO at Tidaro
106

Hiperlokalność – czy na pewno?

Piotr Karbowy
Dyrektor Techniczny w APSYS POLSKA
108

Wojna hybrydowa a bezpieczeństwo obiektów

Tomasz Grzelak
przewodniczący Grupy Doradczej ds. Bezpieczeństwa w Polskiej Radzie Facility Management
111

Niewidzialna architektura komfortu

Krzysztof Zieliński
Członek Zarządu w ATABA
115

Mobilność zmienia zasady gry w usługach sprzątania

mobi
Adam Nawrocki
Dyrektor operacyjny Grupy produktowej Services, Grupa Impel
Rafał Rogowski
Dyrektor ds. Grup Mobilnych, Grupa Impel
118

Robotyka w praktyce Facility Management

 – krok w stronę nowej jakości usług czystości
Dariusz Pawłowski
kierownik działu serwisu ,dział - autonomiczne urządzenia czyszczące, POLOR Sp. z o.o.
121

15-minutowe miasto – przekleństwo czy zbawienie dla Pracodawców?

Adam Sokołowski
Business Development Manager CBRE | GWS
128

Forma, funkcja, doświadczenie. 

Jak Office Inspiration Centre wspiera markę Nowy Styl poprzez architekturę?
No items found.
132

Cisza, która pracuje.

O projektowaniu akustycznie zrównoważonych biur
Joanna Musiał-Jarosz
Projektantka wnętrz
136

Płynąc z Nurtem

Gdzie twarde dane spotykają się z empatią
Daniel Niewiadomski
Co-founder @ NURT
143

RFI BOOK Facility Management

No items found.
2025-04
Hiperlokalność
>
Obiekty
>
No items found.