Хотя искусственный интеллект поднимает множество юридических и этических вопросов, другому тревожному аспекту технологии — ее потенциальному воздействию на окружающую среду — уделяется мало внимания. Ученый-компьютерщик Университета Коруньи Карлос Гомес-Родригес отметил, что обучение больших языковых моделей настолько ресурсоемко, что это под силу только крупным технологическим компаниям. Об этом сообщает Gismeteo.
К сожалению, ни Microsoft, ни Google не раскрыли, сколько вычислительной мощности требуется их ИИ. Однако Wired отмечает, что на обучение модели OpenAI GPT-3 расходуется 1 287 мегаватт-часов — и это помимо того, что она будет обслуживать миллиарды пользователей.
Мартин Бушар, соучредитель QScale — новой модели — отметил, что повышенные вычислительные требования к одному запросу — в четыре-пять раз больше, чем у старых поисковых систем — значительно превышают доступные мощности сервера.
Ранее «ЭкоПравда» сообщала, что в Аргентине выловили огромного речного ската.
Президент России Владимир Путин выразил солидарность с позицией лидера США Дональда Трампа непосредственно о злоупотреблении…
Палеоклиматологи обнаружили недавно, что средневековая "черная смерть", то есть эпидемия чумы, была в том числе…
Палеогенетики из ЮАР и Европы в ходе исследований открыли неизвестную доселе популяцию древних людей, которая,…
Новый метод специального поиска атмосферных загрязнителей применили накануне в Северном Арктическом федеральном университете (САФУ). Он…
Если неподалеку перерабатывают мусор, страх за окружающую среду растет, а любой неприятный запах, стоит ему…
Российские исследователи разработали специальную комплексную методику непосредственно для оценки пластикового загрязнения прибрежных зон, которая будет…