Хотя искусственный интеллект поднимает множество юридических и этических вопросов, другому тревожному аспекту технологии — ее потенциальному воздействию на окружающую среду — уделяется мало внимания. Ученый-компьютерщик Университета Коруньи Карлос Гомес-Родригес отметил, что обучение больших языковых моделей настолько ресурсоемко, что это под силу только крупным технологическим компаниям. Об этом сообщает Gismeteo.
К сожалению, ни Microsoft, ни Google не раскрыли, сколько вычислительной мощности требуется их ИИ. Однако Wired отмечает, что на обучение модели OpenAI GPT-3 расходуется 1 287 мегаватт-часов — и это помимо того, что она будет обслуживать миллиарды пользователей.
Мартин Бушар, соучредитель QScale — новой модели — отметил, что повышенные вычислительные требования к одному запросу — в четыре-пять раз больше, чем у старых поисковых систем — значительно превышают доступные мощности сервера.
Ранее «ЭкоПравда» сообщала, что в Аргентине выловили огромного речного ската.
Кофейная гуща — эффективное натуральное удобрение для томатов и клубники для повышения урожайности. В её…
В Забайкальском крае зафиксировано 47 лесных пожаров на площади 835,5 тыс. га. По данным ФБУ…
В Рязанской области рыбак нашел бивень молодого мамонта на берегу реки Оки. Артефакт длиной около…
Многолетние исследования Томского государственного университета (ТГУ) в Ямало-Ненецком автономном округе (ЯНАО) показали, что состояние вечной…
По прогнозам спасателей пик паводка в Югре придется на середину июня, после чего ситуация начнет…
Приготовление окрошки на семью из четырех человек в России будет стоить 537 рублей, а вот…