Facebook

Narzędziowe rewolucje

Z:A 71

KATEGORIA: Temat wydania

Warsztat architekta determinuje sposób pracy nad projektem oraz wpływa na jego realizację. Zmiany w architekturze idą w parze z rozwojem narzędzi. Obecnie stoimy u progu rewolucji w tej dziedzinie i jednocześnie przed niezwykłą szansą decydowania o tym, jak ma ona wyglądać.

Ekspansja ludzi nie byłaby możliwa bez umiejętności tworzenia narzędzi. Bez igieł służących do szycia nie byłoby produkcji ubrań , a bez narzędzi do uprawy ziemi nigdy nie powstałyby pierwsze osady. Gdyby nie wynaleziono pierwszych rylców służących do pisania, nie byłoby możliwe utrwalanie informacji, rozpowszechnianie wiedzy i – co za tym idzie – nie doszłoby do rozwoju współczesnej cywilizacji.

Zapisywanie, edytowanie i wymiana informacji architektonicznych również są uzależnione od narzędzi. Informacje, takie jak: projekty, kwerendy, opisy i inwentaryzacje, tradycyjnie utrwalamy w postaci tekstu, rysunku lub modelu, używając do tego ołówka, maszyny do pisania, projektowania cad albo spersonalizowanych skryptów. Dobór środków determinuje sposób pracy nad projektem i jej efekty. Dlatego – podobnie jak w przypadku innych dziedzin kultury – zmiany w architekturze idą w parze z rozwojem narzędzi.

Narzędzia tradycyjne

Zdaniem nieżyjącego już wybitnego historyka architektury – Jamesa Ackermana, większość rysunków architektonicznych stworzonych przed okresem renesansu (w starożytnym Egipcie, Mezopotamii, starożytnej Grecji i w średniowieczu) nie pełniło funkcji projektu w dzisiejszym rozumieniu. Ówczesne „nośniki” informacji rysunkowej, takie jak pergamin, były drogie i trudno dostępne. Budowniczowie nie byli wyposażeni w narzędzia ani wiedzę potrzebne do tworzenia rysunków w skali. Zatem budynki najczęściej wytyczano bezpośrednio na gruncie, na którym miały zostać wzniesione, na podstawie opisów i ustnych wskazówek.

Rozpowszechnienie produkcji papieru w Europie umożliwiło zapisywanie idei w formie szkiców i precyzyjnych rysunków technicznych. Pozwoliło to na bardziej abstrakcyjne myślenie i eksperymentowanie z formą, ponieważ ewentualne błędy popełniane na papierze można było zawczasu zweryfikować. Narzędzia kreślarskie miały wpływ nie tylko na styl rysowania, lecz także na ostateczny kształt obiektów architektonicznych. Ackerman wymieniał kilka kamieni milowych, ważnych z punktu widzenia rozwoju architektonicznego warsztatu:

  • grafit spopularyzowany przez Borrominiego, będący wczesną wersją dzisiejszego ołówka;
  • wypełnienia atramentowe, które pozwoliły na rozróżnienie elementów pełnych od pustych na przekrojach;
  • kalka kreślarska, która umożliwiła architektom łatwe przenoszenie elementów rysunku z jednego arkusza na drugi oraz organizowanie planów według warstw;
  • deska kreślarska wraz z elementami pomocniczymi umożliwiającymi automatyzację powtarzalnych procesów.

Rozwój narzędzi kreślarskich miał wpływ nie tylko na sposób pracy architekta, ale też na kształt projektowanych budowli. Na rycinie widoczna jest XIX-wieczna deska kreślarska, il. domena publiczna.

Drugim – obok rysunku – medium charakterystycznym dla warsztatu architekta stał się model, będący odpowiedzią na potrzebę eksperymentowania w architekturze. W przeciwieństwie do budynku na modelu można było prowadzić doświadczenia – sprawdzać, jak zachowuje się pod wpływem wprowadzanych zmian i czynników zewnętrznych. Można go było bez większego ryzyka, w sposób mniej lub bardziej kontrolowany, zepsuć i dzięki temu uniknąć błędów w dziele końcowym.

Symulacje na modelach przeprowadzone przez Filippo Brunelleschiego pomogły przewidzieć konsekwencje decyzji architekta przy projektowaniu kopuły Santa Maria del Fiore. Dzięki budowanym przez siebie prototypom tuneli aerodynamicznych Gustave Eiffel był w stanie oszacować sprawność własnych konstrukcji przy obciążeniu wiatrem. Antoniemu Gaudíemu za narzędzia optymalizacji kształtów projektowanych sklepień posłużyły złożone modele z lin. Przekrycia Freia Otto inspirowane były błonami naturalnie powstającymi na modelach zanurzonych w wodzie z mydłem, a jego dystrybucje elementów w przestrzeni – symulowane za pomocą wzajemnie na siebie oddziałujących magnesów.

Narzędzia cyfrowe

Pojawienie się w latach 40. ubiegłego wieku cyfrowych maszyn liczących szybko zrewolucjonizowało złożone procesy obliczeniowe i powtarzalne analizy danych, ale na zmiany w instrumentarium architektów trzeba było czekać dość długo. Obsługa pierwszych komputerów była zadaniem trudnym – ze względu na brak interfejsów graficznych wydawanie poleceń i odczytywanie wyników obliczeń często wymagało zmian w organizacji połączeń pomiędzy komponentami maszyny. Był to proces dostępny niemal wyłącznie dla specjalistów i miał niewiele wspólnego z intuicyjnością rysunku odręcznego. Zmiany przyniósł dopiero rok 1963. Program Sketchpad Ivana Sutherlanda wprowadził możliwość wyświetlania wektorowych obiektów geometrycznych w trójwymiarowym układzie współrzędnych na czarno-białym monitorze i pozwolił na edycję tych elementów za pomocą intuicyjnego pióra świetlnego. Metoda opracowana przez Sutherlanda stanowiła podwaliny późniejszych, znanych do dziś programów CAD.

Pierwsze komputerowe narzędzia do projektowania, będące cyfrową wersją przykładnicy, stopniowo ewoluowały ku zaawansowanym bazom danych o budynku, procesom budowy i cyklu użytkowania (BIM). Dziś umożliwiają nam one łatwe kształtowanie, analizę i edycję cyfrowych wersji modeli architektonicznych. Właśnie cyfryzacja modeli otworzyła drogę programom, z których korzystamy na różnych etapach procesu projektowania: przy wizualizacji architektonicznej, symulacji sprawności konstrukcji, analizach nasłonecznienia i zapotrzebowania energetycznego lub przy bardziej specjalistycznych analizach akustycznych, symulacjach wiatrowych i analizach space syntax w skali urbanistycznej.

Narzędzia zindywidualizowane

Liczba czynników wpływających na kształt projektu architektonicznego jest ogromna. Uzależniamy ją od kontekstu, zindywidualizowanych potrzeb klienta i ambicji estetycznych projektanta. Gotowe narzędzia opracowane przez producentów oprogramowania nie są w stanie odpowiedzieć na wszystkie potrzeby, gdyż jako produkt masowy wymagają standaryzacji. Wielu współczesnych projektantów nie chce dostosowywać swoich potrzeb do istniejących narzędzi, z czego rodzi się potrzeba kształtowania własnych.

Wyobraźmy sobie, że projektujemy bardzo skomplikowaną strukturę i analizujemy jej sprawność w jednym z przeznaczonych do tego programów. Dochodzimy do wniosku, że warto dodać do niej kilka elementów ściskanych. Po wprowadzeniu zmian znów analizujemy projekt w programie i okazuje się, że w innej części naszej konstrukcji możemy zredukować liczbę elementów lub zmniejszyć ich przekrój, żeby zaoszczędzić na materiale. Wprowadzamy zmiany, znów analizujemy itd. Jest to typowy przykład optymalizacji w procesie projektowym, który może zostać zautomatyzowany za pomocą skryptu, tak aby to komputer – nie projektant – wykonywał powtarzalną część pracy.

Żeby podać inny przykład, załóżmy, że projektujemy elewację złożoną z kilkuset modułów perforowanych w różnym stopniu w zależności od nasłonecznienia fasady. Zamiast rysować każdy moduł osobno, możemy zaprogramować komputer w ten sposób, żeby automatycznie wygenerował modele wszystkich paneli, a następnie z każdego z nich „wyciął” otwory, których wielkość jest proporcjonalna do wartości nasłonecznienia wynikającej z analizy fasady.

Do popularyzacji tworzenia spersonalizowanych narzędzi przyczynił się rozwój języków programowania. Są one coraz prostsze i bardziej zrozumiałe, a nawet powstają takie, które w ogóle nie wymagają kodowania. To tzw. wizualne języki programowania posługujące się graficzną reprezentacją funkcji. Można je łączyć w formie grafów w bardziej złożone algorytmy. Takie języki są dziś łatwo dostępne jako nakładki do programów do modelowania (Grasshopper dla Rhinoceros 3D lub Dynamo dla Revita).

Tworzenie własnych narzędzi zmieniło podejście wielu architektów do projektowania. W tradycyjnym procesie tworzy się rysunki i modele oraz modyfikuje je za każdym razem, kiedy zachodzi potrzeba wprowadzania zmian. Architekt projektujący za pośrednictwem algorytmu tworzy program komputerowy, który generuje rysunki i modele na podstawie danych wejściowych, czyli parametrów. Kiedy się one zmieniają, nie trzeba ręcznie modyfikować modelu, ponieważ jest on aktualizowany automatycznie. Proces taki przyjęło się nazywać projektowaniem generatywnym lub parametrycznym.

Projektowanie parametryczne często myli się z parametryzmem, czyli stylem w architekturze, który zakłada, że wykorzystanie narzędzi generatywnych należy podkreślać w formie architektonicznej poprzez użycie złożonych geometrii jako manifestu możliwości, jakie daje nam automatyzacja modelowania. Znane przykłady takiego stylu to przede wszystkim dzieła Patrika Schumachera i biura Zaha Hadid Architects czy – rozumiane już jako klasyczne – budynki Franka Gehry'ego, dające swoją formą wyraz możliwościom niesionym przez cyfrową fabrykację elementów budowlanych.

Opera Narodowa w Guangzhou, proj. Zaha Hadid. Dzieła tego biura są przykładem parametryzmu w architekturze, fot. Iwan Baan.

Projektowanie parametryczne przejawia się jednak najczęściej w zautomatyzowanych fragmentach procesów projektowania budynków, które na pierwszy rzut oka niekoniecznie wydają się „parametryczne”. To np. przekroje i plany wieżowca Normana Fostera przy ulicy St. Mary’s Axe 30 w Londynie, zoptymalizowane tak, aby budynek był jak najbardziej wydajny energetycznie, lub wnętrza współczesnych sal koncertowych wyprofilowane w taki sposób, aby dźwięk rozchodził się w nich w możliwie najlepszy sposób.

Narzędzia inteligentne

Algorytmizacja niesie ze sobą wiele pytań o rolę twórcy w procesach kreatywnych, o czym pisze Jan Słyk w artykule Twórczość czy algorytm. Obawy o rolę „czynnika ludzkiego” w twórczości budzą dzieła muzyczne Davida Cope’a, będące automatyczną syntezą elementów kompozycji Bacha, Mozarta czy Vivaldiego, lub projekt Malagueira José Duartego, w którym algorytm generuje budynki na podstawie zasad wyciągniętych z analiz twórczości Álvaro Sizy. Jednak zarówno te projekty, jak i przytoczone przykłady narzędzi – mimo różnic w stopniu automatyzacji procesów – mają jedną wspólną cechę. Jest nią założenie, że kluczową rolę w obsłudze narzędzi pełni człowiek – jako osoba trzymająca w ręce ołówek, użytkownik wprowadzający dane do programu komputerowego czy programista definiujący algorytm generatywny.

Można odnieść wrażenie, że zawsze – nawet w najbardziej zautomatyzowanym procesie – musi pojawić się człowiek, który taki proces kontroluje. Jednak u progu trzeciej dekady XXI wieku dyskusja wokół narzędzi cyfrowych zdominowana jest przez dziedzinę będącą w stanie tę sytuację odwrócić: mam tu na myśli sztuczną inteligencję.

O tym, czy komputery są w stanie same się uczyć i podejmować własne decyzje, dywaguje się już od lat 50. XX wieku, czyli odkąd w ogóle możemy mówić o istnieniu komputerów. Ale dopiero ostatnie dziesięciolecia przyniosły taki rozwój technologiczny, że sztuczna inteligencja nie jest teorią, ale już funkcjonuje we współczesnym świecie. Dzisiejsze uczące się systemy niemal bezbłędnie rozpoznają osoby na zdjęciu w telefonie komórkowym, trafnie sugerują, jaka muzyka może nas zainteresować, proponują zmianę tonu e-maila, który właśnie piszemy do kolegi z pracy i prowadzą samochód w bezpieczny sposób.

Stosowanie narzędzi inteligentnych nie jest zjawiskiem nowym. Od tysiącleci ludzkość wykorzystywała np. konie w celach transportowych czy psy podczas polowań. Te „narzędzia” potrafią uczyć się samodzielnego wykonywania zadań. Podobnie jest w przypadku sztucznej inteligencji. To jednak budzi dużo emocji, ponieważ po raz pierwszy w historii nie tylko korzystamy z narzędzi inteligentnych, ale też jesteśmy w stanie sami je tworzyć. Ta zdolność wiąże się z niepowtarzalnymi możliwościami połączenia elastyczności i zdolności rozumowania z umiejętnością przetwarzania ogromnej liczby informacji i szybkością kalkulacji. Jednak pojawia się też niepewność, czy jesteśmy w stanie takie narzędzia kontrolować. A to jest prawdopodobnie najważniejszym wyznacznikiem ich przydatności. To dlatego ludzie do wykonywania prac przez wieki korzystali z pomocy koni (lub w wielu kulturach – wielbłądów), a nie np. silniejszych i inteligentniejszych, lecz dużo trudniejszych w oswojeniu goryli.

Yasuhisa Toyota jest odpowiedzialny za akustykę m.in. w Elbphilharmonie w Hamburgu. Jego projekty charakteryzują się optymalizacją w skali kształtu sklepień we wnętrzu, a także w mikroskali – w detalach paneli akustycznych, fot. Oliver Heissner.

Wykorzystanie sztucznej inteligencji w procesach architektonicznych nie jest dzisiaj jeszcze powszechne. Projektowanie architektoniczne tradycyjnie uważa się za proces twórczy i trudno sobie wyobrazić, że mogłoby się odbywać w sposób zupełnie zautomatyzowany i pozbawiony udziału ludzkiego. Niemniej jednak istnieją już eksperymenty wykorzystujące sztuczną inteligencję w naszym zawodzie. Stanislas Chaillou w pracy pt. AI+Architecture: Towards a New Approach zaproponował użycie systemu GANs do generowania planów budynków. GANs (Generative Adversarial Networks) to metoda maszynowego uczenia się opracowana przez Iana Goodfellowa, w której biorą udział dwie sieci neuronowe, czyli modele matematyczne inspirowane relacjami zachodzącymi w mózgu. W takiej metodzie jedna sieć (tzw. dyskryminator) „uczy się” rozpoznawania wzorców na podstawie np. wielu obrazów, które zadaje jej użytkownik, a druga sieć (tzw. generator) – tworzenia lub modyfikacji nowych obrazów tak, aby odpowiadały tym zasadom. Dla wyjaśnienia: dyskryminator analizuje tysiące zdjęć kwiatów, dopóki się nie nauczy, jak wygląda stokrotka (jakie dane liczbowe są zawarte w obrazach przedstawiających stokrotkę, a jakie w tych przedstawiających inne kwiaty); natomiast generator tworzy losowo plamy kolorów tak długo, aż dyskryminator rozpozna w nich stokrotkę. Chaillou w swoim projekcie wykorzystał bazę danych zawierającą plany budynków mieszkalnych w Bostonie i wytrenował opracowany przez siebie system do generowania analogicznych planów na dowolnym zadanym obrysie.

Ten przykład ilustruje dwa istotne aspekty wykorzystania sztucznej inteligencji w projektowaniu architektonicznym. Po pierwsze, pokazuje, że maszyna może nauczyć się wykonywania pracy, należącej do tej pory do architekta, wyłącznie na podstawie wystarczającej liczby przeanalizowanych danych. Po drugie, nasza kontrola nad wynikami takiej pracy ogranicza się do doboru informacji, na podstawie której system się uczy. To bardzo delikatna sytuacja, ponieważ taka rola jest bardzo łatwa do zautomatyzowania, a jednocześnie bardzo istotna – od tego, na jakiej podstawie uczy się komputer, zależy, czego się nauczy i w jaki sposób.

Powstanie tzw. silnej sztucznej inteligencji (czyli takiej, która jest w stanie sama stawiać sobie cele i dążyć do nich w sposób zaplanowany, bez potrzeby ingerencji człowieka) jest zdaniem ekspertów, takich jak Ray Kurzweil czy Max Tegmark, nieuniknione. Sztuczna inteligencja może być drugą – po człowieku – „istotą” zdolną do tworzenia własnych inteligentnych narzędzi. To oczywiście wywraca nasze wyobrażenie o niepowtarzalności człowieka w szerokim filozoficznym sensie, ale też – w bardziej przyziemnej skali – podważa jego niezastąpioność w procesach twórczych. Powinniśmy zacząć dyskutować o tym, czy nasza praca może być zastąpiona przez komputer, i jeśli tak, to w jakim stopniu. Moim zdaniem, niestety, algorytmy są w tym zakresie naszą konkurencją. Kapitalizm dąży przecież do minimalizacji kosztów i maksymalizacji efektów, i wszyscy – w mniejszym lub większym stopniu – żyjemy według jego zasad. Usługi bez udziału człowieka są tańsze i szybciej realizowane, co nie oznacza, że lepsze. Mam wrażenie, że wielu architektów boi się nawet rozmawiać o takiej wizji i w tym upatruję naszą zgubę. Jeśli to nie my będziemy próbować dyskutować o tym, jak ewentualna automatyzacja naszej pracy ma wyglądać, to zrobią to za nas inwestorzy. Stoimy prawdopodobnie u progu narzędziowej rewolucji i możemy wpływać na jej postać. Jeśli tego nie zrobimy, skażemy się na sytuację, w której decyzje dotyczące przyszłości naszej pracy będą podejmowane bez nas.

 

 

Jacek Markusiewicz
Jacek Markusiewicz

architekt i programista, ukończył studia na Wydziale Architektury Politechniki Warszawskiej i na IaaC w Barcelonie, zajmuje się zagadnieniami architektury parametrycznej, sztucznej inteligencji i komunikacji człowiek – komputer w procesach projektowych, mieszka i pracuje w San Sebastián, gdzie współtworzy firmę RAZ

TAGI

reklama

Warto przeczytać