Wyścig gigantów z Doliny Krzemowej, aby zintegrować generatory języków AI z wyszukiwarkami internetowymi, może spowodować pięciokrotny wzrost zapotrzebowania na moc obliczeniową i ogromną emisję dwutlenku węgla.
Opracowano już komercyjną mapę drogową dla generatorów tekstu AI. Dzięki skromnym początkom w zastosowaniach rekreacyjnych, takich jak tworzenie oryginalnych tekstów piosenek, wierszy, a nawet wykonywanie zadań szkolnych, technologia ta stała się lukratywną obsesją gigantów z Doliny Krzemowej.
Na początku lutego wiadomość, że Microsoft planuje zintegrować ChatGPT z Bing, wysłała Google do zgłoszenia „kod czerwony”..
Po burzliwych spotkaniach między grubą rybą Alphabet, firma zdecydowała się przyspieszyć wprowadzenie na rynek własnego konkurenta AI, Bard, obawiając się, że jego wyszukiwarka i przychody z reklam mogą odnotować znaczny spadek zaangażowania.
Obie firmy wciąż przepychają się, aby udowodnić, że ich iteracja technologii chatbotów jest punktem odniesienia i chińską firmą wyszukującą Baidu od tego czasu ogłosił swoją wyprawę do AI.
Co tydzień pojawiają się nowe rozwiązania, a ogrom inwestycji i innowacji jest ekscytujący. Jednak w szale zysków jeden kluczowy aspekt rozwijającej się przestrzeni kosmicznej poświęcono znacznie mniej uwagi: jej potencjalnie ogromny koszt ekologiczny.
Dosłownie ukrywając brudny sekret, właściciele nie ujawnili jeszcze ogromnego zapotrzebowania na moc, aby zasilić te narzędzia, aby działały masowo. Analiza strony trzeciej sugeruje, że GPT-3 OpenAI zużył 1,287 MWh podczas treningu i wytworzył 550 ton dwutlenku węgla.