Menu Menu

Powstanie chatbotów AI może stworzyć ekologiczny koszmar

Wyścig gigantów z Doliny Krzemowej, aby zintegrować generatory języków AI z wyszukiwarkami internetowymi, może spowodować pięciokrotny wzrost zapotrzebowania na moc obliczeniową i ogromną emisję dwutlenku węgla.

Opracowano już komercyjną mapę drogową dla generatorów tekstu AI. Dzięki skromnym początkom w zastosowaniach rekreacyjnych, takich jak tworzenie oryginalnych tekstów piosenek, wierszy, a nawet wykonywanie zadań szkolnych, technologia ta stała się lukratywną obsesją gigantów z Doliny Krzemowej.

Na początku lutego wiadomość, że Microsoft planuje zintegrować ChatGPT z Bing, wysłała Google do zgłoszenia „kod czerwony”..

Po burzliwych spotkaniach między grubą rybą Alphabet, firma zdecydowała się przyspieszyć wprowadzenie na rynek własnego konkurenta AI, Bard, obawiając się, że jego wyszukiwarka i przychody z reklam mogą odnotować znaczny spadek zaangażowania.

Obie firmy wciąż przepychają się, aby udowodnić, że ich iteracja technologii chatbotów jest punktem odniesienia i chińską firmą wyszukującą Baidu od tego czasu ogłosił swoją wyprawę do AI.

Co tydzień pojawiają się nowe rozwiązania, a ogrom inwestycji i innowacji jest ekscytujący. Jednak w szale zysków jeden kluczowy aspekt rozwijającej się przestrzeni kosmicznej poświęcono znacznie mniej uwagi: jej potencjalnie ogromny koszt ekologiczny.

Dosłownie ukrywając brudny sekret, właściciele nie ujawnili jeszcze ogromnego zapotrzebowania na moc, aby zasilić te narzędzia, aby działały masowo. Analiza strony trzeciej sugeruje, że GPT-3 OpenAI zużył 1,287 MWh podczas treningu i wytworzył 550 ton dwutlenku węgla.

Chociaż w odosobnieniu nie wydaje się to horrendalną kwotą, kiedy pomyślisz o szerszym obrazie – i energii potrzebnej do ciągłej obsługi milionów użytkowników w każdej głównej wyszukiwarce – konsekwencje stają się naprawdę niepokojące.

Chwali się ChatGPT 13 milionów użytkowników dziennie jako samodzielny produkt, a jego platforma hosta jest obsługiwana przez Bing pół miliarda codzienne hity. Nawet bez dodatkowego obciążenia związanego z generatywną technologią sztucznej inteligencji centra danych już odpowiadają za około 1% wszystkich emisji gazów cieplarnianych.

Martin Bouchard z kanadyjskiej firmy zajmującej się centrami danych, QScale, po połączeniu z kilkoma integracjami z chatbotami szacuje, że na przeszukiwanie Internetu będzie potrzebne od czterech do pięciu razy więcej mocy obliczeniowej. Twierdzi, że jest to prawdopodobnie również absolutne minimum.

„Jeśli zamierzają często przeszkolić model i dodać więcej parametrów i innych rzeczy, to jest to zupełnie inna skala rzeczy” – wyjaśnił Bouchard. „Obecne centra danych i infrastruktura, którą dysponujemy, nie będą w stanie poradzić sobie z [dodaniem sztucznej inteligencji]… to za dużo” — ostrzega.

Jak widzieliśmy zbyt często, kiedy pojawiają się nowe i popularne technologie, ich wpływ na środowisko jest często uwzględniany później. Boom na kryptowaluty i NFT dosłownie ożywiły umierające elektrownie paliw kopalnych w całych Stanach Zjednoczonych oraz zakres przetwarzania w chmurze ślad węglowy może stać się skandaliczne, gdy stanie się podstawą transakcji cyfrowych.

Biorąc pod uwagę, że Microsoft zobowiązał się do zostania ujemny węgiel do 2050 r, bardzo żywo interesujemy się jej przyszłymi operacjami – w szczególności tym, w jaki sposób planuje wesprzeć swoje przedsięwzięcia AI zieloną infrastrukturą.

dostępność