Хотя искусственный интеллект поднимает множество юридических и этических вопросов, другому тревожному аспекту технологии — ее потенциальному воздействию на окружающую среду — уделяется мало внимания. Ученый-компьютерщик Университета Коруньи Карлос Гомес-Родригес отметил, что обучение больших языковых моделей настолько ресурсоемко, что это под силу только крупным технологическим компаниям. Об этом сообщает Gismeteo.
К сожалению, ни Microsoft, ни Google не раскрыли, сколько вычислительной мощности требуется их ИИ. Однако Wired отмечает, что на обучение модели OpenAI GPT-3 расходуется 1 287 мегаватт-часов — и это помимо того, что она будет обслуживать миллиарды пользователей.
Мартин Бушар, соучредитель QScale — новой модели — отметил, что повышенные вычислительные требования к одному запросу — в четыре-пять раз больше, чем у старых поисковых систем — значительно превышают доступные мощности сервера.
Ранее «ЭкоПравда» сообщала, что в Аргентине выловили огромного речного ската.
Натуропат и сооснователь Академии "PRO-Здоровье" Ксения Глинкина предостерегает людей с нарушениями в работе печени от…
В обсуждении кулинарных предпочтений и вреда определенных продуктов все больше внимания привлекает ягода, которая до…
Во время майских праздников интерес россиян к отдыху в Крыму продолжает расти, подтвердил глава республики…
Исследование, опубликованное в журнале Nature Neuroscience, раскрывает секрет того, как мозг превращает волны света в…
Недавние исследования, опубликованные в журнале Angewandte Chemie (АС), подтверждают медицинскую гипотезу о взаимосвязи между употреблением…
В последнее время ученые все чаще предсказывают увеличение активности Солнца и учащение магнитных бурь в…