Посты

Some SEO Title

Фильтры:

ID площадки

Поиск по ключевому слову:

Фильтры

Дата:

Социальные сети:

Репосты:

Комментарии:

Охват:

График публикаций площадки

Всего 127 постов в 1 канале

ava
🤩 Хаяо Миядзаки еще почти 10 лет назад высказался против ИИ в анимации — но его уже никто не слушает

Глава OpenAI Сэм Альтман впервые прокомментировал хайп с картинками в стиле аниме студии Ghibli Хаяо Миядзаки, созданными новым генератором изображений в ChatGPT. И заочно поспорил с позицией художника о роли ИИ в искусстве будущего.

Сам Миядзаки (обладатель трех «Оскаров») — резко против применения компьютерных технологий в своем творчестве. На волне хайпа с Ghibli-картинками в интернете вспомнили, как художник еще в 2016 году заклеймил ИИ-анимацию.

«Я бы никогда не хотел включать эту технологию в свою работу. Я твердо уверен, что это оскорбление самой жизни», — заявил Миядзаки.


Сэм Альтман, комментируя позицию Миядзаки, пояснил, что считает внедрение ИИ эволюцией создания контента. Еще 30 лет назад съемка даже простого видео требовала дорогой камеры, кассет, сложного оборудования для монтажа. Да и поделиться видео тогда было непросто в силу неразвитости интернета. Сегодня портативная видеостудия — смартфон — есть у каждого в кармане.

Альтман понимает двойственность ситуации для художников, которым приходится адаптироваться под растущее влияние ИИ, но видит в этом процессе больше плюсов, чем минусов.

«Что касается масштабов нашего проекта — мы скоро пересечем отметку в миллиард сгенерированных изображений. Это гораздо больше, чем, как я думал, интернет способен потребить», — заявил Альтман.

🤩 В Сети тем временем обсуждают законность подобной эксплуатации Ghibli-стиля. Однако, в 2023 году Японское агентство по культурным вопросам объяснило, что защищенные авторским правом работы могут использоваться без разрешения в целях обучения ИИ — если целью не является «наслаждение мыслями или чувствами, выраженными в произведении».

Формально ИИ-компании не должны использовать пиратский контент, как и конечные пользователи — воспроизводить с помощью ИИ оригинальные произведения или «прямо конкурирующие» с ними продукты. На практике, признают власти, следить за соблюдением ограничений сложно.

А как вы считаете, можно ли творить искусство с помощью ИИ?

❤️ — да, Альтман прав: это развитие
🔥 — нет, Миядзаки прав: ИИ не место в искусстве
🤔 — истина где-то посередине

👋 Подпишитесь на Hi, AI!

#новости #OpenAI #Гибли
ava
📈 Слышали о Битрикс24? Онлайн-сервис для бизнеса и совместной работы.

В апреле скидка 30% на годовую лицензию Битрикс24 + AI-помощник для бизнеса на 100 000 ₽ — бонусом.

ИИ — в каждый бизнес. Акция действует по 30 апреля.

➡️ Подробнее по ссылке.
ava
🔬 ИИ в науке: не только помощник, но и источник фейков

Современную науку уже трудно представить без искусственного интеллекта: нейросети открывают новые лекарства и анализируют медицинские архивы, изучают данные телескопов для поиска экзопланет.

Но у ИИ в науке есть и обратная сторона — с его распространением фальсификация исследований вышла на новый уровень. Каждую неделю в научные журналы попадают тысячи нейросетевых работ, считают аналитики.

Удивительно, но их авторы попадаются, как школьники, которые сгенерировали реферат «на коленке».

На чем ловят ученых?

📌 ИИ-искажения — неудачные попытки с помощью ИИ перефразировать текст, чтобы спрятать плагиат. В результате «рак груди» становится «грудной опасностью», big data — «гигантской информацией», а «нейросеть» — «нейронной организацией».

📌 Комментарии нейросетей. Кажется, глупым, но в некоторые работы копируют фразы вроде: «Как большая языковая модель, я...» или «Конечно, вот возможное вступление для вашей статьи...»

📌 Речевые штампы — некоторые слова и словосочетания ИИ употребляет гораздо чаще людей. Например, чрезмерное использование «похвальный» и «дотошный» выдает ChatGPT.

📌 Сгенерированные изображения — иллюстрации с анатомическими ошибками или бессмысленными подписями.

📌 Галлюцинации ИИ — вымышленные химические формулы, некорректные расчеты или бессмысленные уравнения.

🔍 Как находят поддельные работы?

Бороться с ИИ-подделками помогают, как ни странно, другие нейросети. Например, Problematic Paper Screener проверяет текст на наличие характерных для ChatGPT штампов и особенностей стиля. А для верификации иллюстраций применяют Proofig AI.

🦥 «Халтурят» не только авторы, но и проверяющие

Интересно, что желание сэкономить время возникает и у тех, кто должен отсеивать недобросовестные исследования.

Например, недавно эколог Тимоти Пуазо рассказал, что получил рецензию на свою работу, составленную с помощью ИИ. Проверяющего выдала лень. Текст начинался фразой: «Вот пересмотренная версия вашего обзора с улучшенной ясностью и структурой».

⚖️ Где золотая середина?

Но прогресс неизбежен, и многие научные издательства разрабатывают руководства по использованию ИИ в публикациях. Например, авторам разрешают использовать нейросети для редактирования и улучшения языка, но не для написания работы целиком. Однако единых стандартов пока нет.

Академическое сообщество стоит перед выбором: либо выработать четкие нормы, либо наблюдать превращение научных публикаций в поток убедительных, но бессмысленных текстов. По крайней мере, пока японский стартап Sakana AI не доведет до совершенства своего ИИ-ученого.

Еще по теме:

⚛️ Почему генеративный ИИ ошибается?

⚛️ Как галлюцинации ИИ могут помогать ученым

👋 Подпишитесь на Hi, AI!

#новости #наука
ava
👁‍🗨 Почему ИИ-компании только притворяются открытыми

Около 50 лет назад в Калифорнии появился клуб компьютерных энтузиастов Homebrew Computer Club. Его участники заложили основную идею движения открытого кода: программы должны быть открытыми, чтобы каждый мог их использовать, изучать, менять и делиться с другими.

Благодаря открытому коду разработчики по всему миру создают инструменты, толкающие вперед науку и технологический прогресс. Самые яркие примеры — язык программирования Python и ядро ОС Linux.

🍹 Как ИИ-компании нас путают

Сегодня многие ИИ-компании называют свои продукты «открытыми», но на деле они показывают только общую архитектуру и скрывают самое важное.

Анализ, проведенный Инициативой открытого исходного кода (OSI), показал, что популярные «открытые» языковые модели — Llama 2 и Llama 3.x (Meta*), Grok (xAI), Phi-2 (Microsoft), Mixtral (Mistral AI) — не соответствуют фундаментальным принципам сообщества. Разработчики не раскрывают дата-сеты для обучения и другие детали. Их продукты в лучшем случае можно назвать «моделями с открытыми весами».

Но существуют и в полной мере open source модели, их создают в основном некоммерческие организации, такие как Институт искусственного интеллекта Аллена, или энтузиасты.

🖥 Почему компании это делают

В 2024 году Европейский Союз принял Регламент об искусственном интеллекте, жестко регулирующий отрасль. Но для открытого ПО акт содержит послабления, которыми пытается пользоваться бизнес. Специалисты называют такую практику «отмыванием открытости» (openwashing).

Для борьбы с подменой понятий OSI разработала стандарт, определяющий настоящий открытый ИИ. Согласно нему, разработчики должны публиковать не только код, но и информацию об обучающих данных.

Если сами данные опубликовать невозможно (например, из-за защиты личной информации), компании должны хотя бы раскрыть источники данных и как они обрабатывались.

Идею (ожидаемо) еще в 2024 году критиковали в Meta, отмечая, что подходы прошлых лет плохо отражают нюансы современного быстрого развития ИИ.

Власти тоже могут помочь исправить ситуацию. Например, в США уже требуют от получателей научных грантов публиковать данные исследований в открытом доступе. Повсеместное распространение подобных правил поможет ИИ остаться прозрачной и доступной технологией, а не закрытым инструментом в руках нескольких корпораций.

Еще про открытый код:

🟥 Успех DeepSeek: как китайская модель бросает вызов ChatGPT

🟥 OpenAI может открыть код своих старых моделей

👋 Подпишитесь на Hi, AI!

* Компания Meta признана экстремистской и запрещена в России

#новости #opensource
ava
🔺 Загадка треугольника и квадрата: как математики нашли ответ спустя 122 года

Представьте себе равносторонний треугольник из бумаги. Вам нужно разрезать его на несколько частей и сложить из них квадрат. На какое минимальное число частей для этого нужно разрезать треугольник?

Эту «задачу галантерейщика» в 1902 году опубликовал ведущий газетной колонки с головоломками математик-самоучка Генри Дьюдени. Сам того не подозревая, он сформулировал одну из сложнейших теорем столетия.

✂️ Первое решение

Спустя две недели после публикации Дьюдени получил решение делением на четыре части от клерка МакЭлроя из Манчестера. Решение с меньшим количеством частей никто из читателей так и не предложил.

Решение МакЭлроя оказалось изящным, но неполным. Остался вопрос: действительно ли четыре части — это минимум?

🔃 В поисках истины

Десятилетия задача кочевала из одного математического сборника в другой. Она притягивала и любителей, и профессоров, но окончательного доказательства оптимальности решения МакЭлроя за более, чем 100 лет, никто не нашел.

Уже в 21 веке для решения задачи объединились три математика: Эрик Демейн из США и Рюхей Уэхара и Тонан Камата из Японии, занимающиеся математическим исследованием оригами и теорией графов — и они решили применить один из подходов для задачи оригами к «делу Дьюдени».

«Чем проще кажется нерешенная задача, тем более захватывающей она становится для тех, кто любит математику», — говорит Камата.


Первый шаг был относительно простым. Математики доказали невозможность решения разрезанием на две части. И вправду: ведь тогда треугольник и квадрат должны иметь одинаковую площадь. Самый длинный разрез в квадрате — диагональ — оказывается короче стороны треугольника такой же площади.

Но задача с тремя частями оказалось гораздо сложнее. «Вы не можете просто перебрать все варианты на компьютере. Их буквально бесконечное множество», — отмечает Демейн.

🔚 Окончательный ответ

В итоге математики классифицировали все возможные способы разрезать треугольник в зависимости от того, как разрезы пересекают стороны фигуры. Они разделили бесконечное множество вариантов на 5 основных типов для треугольника и 38 типов для квадрата.

Потом ученые рассмотрели, как идут линии разреза внутри фигур — какие углы и расстояния между точками получаются. Если бы удалось найти разрез треугольника, у которого все линии совпадают по длине и углам с каким-то разрезом квадрата, это означало бы, что полученные кусочки можно переставить и собрать из них квадрат. Но проверка показала: ни один из вариантов не подходит. Значит, треугольник нельзя разрезать на три части так, чтобы из них сложился квадрат.

В декабре 2024 года, спустя 122 года после публикации головоломки, трое математиков опубликовали свое доказательство. Клерк МакЭлрой из Манчестера в 1902 году действительно оказался прав.

Еще по теме:

🔺 Математик Джон Леннокс — ИИ меняет восприятие мира детьми

🔺 «Последний экзамен человечества» — самый сложный тест для ИИ

👋 Подпишитесь на Hi, AI!

#новости #математика

Самые популярные публикации

Реакций нет
210 265
17.03.2025 в 09:50
Реакций нет
198 554
17.03.2025 в 09:50
Реакций нет
190 540
10.03.2025 в 06:29
📺 «2073» — как будет выглядеть мир после ИИ-катастрофы?

Люди живут под землей и питаются мусором — на поверхности царит тоталитаризм и бесконечная война. Кажется, что это банальный фильм про конец света, но неотличимые от фантастики сегодняшние документальные кадры делают «2073» по-настоящему атмосферным.

Главный вопрос, который оскароносный режиссер Азиф Кападиа задает зрителю: можем ли мы еще остановить катастрофу?

☢️ Сюжет:

В центре повествования — немая женщина, выжившая после «того самого дня». Каждое утро она выбирается на поверхность, чтобы отыскать что-то полезное в горах мусора. Но там ее ждут ИИ-дроны и солдаты нового тоталитарного правительства США. Их цель — «переобучить» мятежников из катакомб и сделать их полезными для капиталистического мира.

Героиня пытается восстановить цепочку событий прошлого, чтобы понять, как мир пришел к катастрофе. Она мысленно отправляется в наши дни, где находит множество предпосылок «конца света»: экономический кризис и пандемия, установление диктатур в разных странах, беспечное отношение человека к природе, но самое главное — технологическая гонка в области ИИ, завершившаяся катастрофой.

Фильм «2073» вдохновлен французской картиной «Взлетная полоса» 1962 года. В ней человечество живет под землей из-за последствий Третьей Мировой войны и пытается с помощью машины времени предотвратить трагедию. Этот же сюжет лег в основу «12 обезьян» 1995 года с Брюсом Уиллисом и Брэдом Питтом.


Будете смотреть «2073»?


❤️ — да, люблю научную фантастику
🤔 — мне хватает ленты новостей...

👋 Подпишитесь на Hi, AI!

#mustsee
Реакций нет
171 752
15.03.2025 в 06:29
Реакций нет
168 851
06.03.2025 в 05:49
🤩 Ян Лекун: «У ИИ неизбежно появятся эмоции»

Главный специалист по искусственному интеллекту в Meta* и лауреат премии Тьюринга Ян Лекун рассказал в новом интервью об эмоциональных ИИ-системах, почему физический мир сложнее языка и следующем этапе в эволюции ИИ-моделей.

Хайлайты:

💬 Будущие ИИ-системы будут иметь эмоции. Они смогут понимать физический мир, планировать свои действия и неизбежно разовьют базовые эмоции вроде страха или волнения, считает Лекун. Также ИИ научится испытывать «счастье» при достижении цели.

💬 «Не стоит быть одержимыми вопросом сознания», говорит Лекун. У сознания до сих пор нет четкого определения, но, возможно, мы просто неправильно ставим вопрос — как раньше люди не понимали, почему мы видим мир нормально при перевернутом изображении на сетчатке. В итоге загадка потеряла смысл — все зависит от интерпретации мозга.

💬 Физический мир сложнее для моделирования, чем язык. Язык дискретен и конечен, а физический мир непрерывен и непредсказуем. Мы можем предсказать следующее слово в тексте, но невозможно предугадать, что увидит видеокамера при резком повороте.

💬 Самоконтролируемое обучение (self-supervised learning) — ключ к прогрессу в ИИ. Это парадигма, в которой система не тренируется для конкретной задачи, а обучается улавливать внутренние зависимости во входных данных.

«В случае языковых моделей: вы берете фрагмент текста, каким-то образом искажаете его, например, удаляя некоторые слова, а затем обучаете большую нейронную сеть предсказывать отсутствующие слова», — объясняет Ян Лекун.


💬 Главное — научить систему мыслить абстракциями. Алгоритм должен понимать, что изображено на скрытой от него части картинки, как это представляет человек, а не просто предсказывать пиксель за пикселям, как это делают текущие ИИ-модели.

📺 Полностью посмотреть беседу можно тут.

Другие интервью Яна Лекуна:

👉 Ян Лекун — о доминировании AI, закрытости OpenAI и сверхразуме

👉 Ян Лекун — о создании ИИ-моделей со здравым смыслом

👋 Подпишитесь на Hi, AI!

* Компания Meta признана экстремистской и запрещена в России

#интервью #Лекун
Реакций нет
166 680
14.03.2025 в 09:49
🇪🇪 Эстония на государственном уровне внедряет ChatGPT в образование

С 1 сентября 2025 года 20 тыс. старшеклассников и 3 тыс. учителей в Эстонии получат бесплатный доступ к ChatGPT. Со временем в рамках инициативы AI Leap бота начнут использовать все школы и училища страны. Учителям ИИ-ассистенты помогут в планировании расписания, административных задачах и поддержке учеников, а для детей станут индивидуальными репетиторами.

Учащиеся и преподаватели получат доступ к ChatGPT Edu — специальной образовательной версии бота на базе GPT‑4o с более широкими лимитами по сравнению с бесплатной версией. ChatGPT Edu уже используют студенты в Гарварде, Оксфорде, Лондонской школе бизнеса и многих других учебных заведениях. Но Эстония — первая в мире страна, внедряющая ChatGPT в образование на государственном уровне. Годовой бюджет госпрограммы — 6,5 млн евро.

По данным OpenAI, в Эстонии ChatGPT уже пользуется каждый четвертый житель. В основном эстонцы применяют ИИ для учебы, программирования и работы с текстом.

«Система образования не может игнорировать или запрещать новые технологии. Напротив, школы должны возглавить их внедрение»,заявляет инициатор программы AI Leap Линнар Виик.


А вы поддерживаете использование ИИ в школах?

👍 — да, образование должно быть современным
🤔 — нет, дети должны думать своей головой

👋 Подпишитесь на Hi, AI!

#новости #образование #OpenAI
Реакций нет
165 865
12.03.2025 в 09:49
Реакций нет
165 580
06.03.2025 в 05:49
🦾 Парализованный человек научился управлять роборукой силой мысли 

Исследователи из Калифорнийского университета в Сан-Франциско создали адаптивный нейрокомпьютерный интерфейс на базе искусственного интеллекта, позволивший уже много лет парализованному человеку управлять роботизированной рукой. 

Большинство подобных устройств исправно работают всего пару дней — в процессе привыкания к роборуке паттерны мозговой активности человека меняются, из-за чего алгоритмы нужно опять калибровать. Новый нейроинтерфейс автоматически учитывает эти поправки, благодаря чему модель работала семь месяцев. Даже после нескольких месяцев без тренировок пациенту понадобилось всего 15 минут, чтобы уверенно управлять роборукой.

Эксперимент состоял из нескольких этапов. Сначала в течение двух недель испытуемый много раз представлял себя двигающим пальцами рук и ног, руками и головой. Данные о его мозговой активности во время тренировок считывались небольшим мозговым имплантом и использовались для обучения и тонкой настройки ИИ. 

Далее пациент учился управлять виртуальной рукой, получая обратную связь о точности своих движений. После этого к интерфейсу подключили уже настоящую роборуку, с помощью которой испытуемый смог хватать и перемещать предметы. Например, достать чашку и набрать в нее воду из кулера ⤴️

Авторы исследования считают новую технологию прорывной для создания нейропротезов, которые дадут парализованным людям возможность самостоятельно выполнять повседневные задачи. «Такое сочетание обучения между людьми и искусственным интеллектом — следующий этап развития интерфейсов мозг-компьютер», — говорит профессор неврологии Калифорнийского университета в Сан-Франциско Карунеш Гангули.

Еще по теме:

🔄 Японские ученые создали биогибридную роборуку

🔄 Пациент с Neuralink научился управлять роборукой

👋 Подпишитесь на Hi, AI!

#новости #роботы #медицина
Реакций нет
163 815
14.03.2025 в 05:51
📣 Привет, друзья! Самое интересное за 11-ю неделю 2025 года из мира ИИ в нашем воскресном дайджесте.

▎НОВОСТИ НЕЙРОСЕТЕЙ

🌐 Gemma 3 — новое поколение малых языковых моделей Google.

🎙 Image-01 нейросеть для создания кинематографичных кадров от китайской Hailuo AI.

▎ОБНОВЛЕНИЕ БОТА

💻 GPT-4.5 в @GPT4Telegrambot — самая большая и самая «человечная» модель OpenAI.

▎ПОЧИТАТЬ

🇪🇪 Эстония первой массово внедряет ChatGPT в школы.

📝 Сэм Альтман опубликовал рассказ, написанный новой, еще не выпущенной моделью OpenAI, который поразил его самого.

📈 Эксперты Экономического форума спрогнозировали, какие профессии исчезнут к 2030 году.

🎮 Microsoft запускает ИИ-ассистента Copilot для геймеров.

🔬 Научная статья, написанная ИИ, прошла рецензирование для престижного семинара.

🥇 Премию Тьюринга получили создатели метода обучения с подкреплением.

🦾 Парализованный человек научился управлять роборукой силой мысли.

🤖 Почему гуманоидные роботы — ключ к новой революции в промышленности?

🍳 Стартап из Кремниевой долины предлагает нанять повара-робота за $12/час.

▎ПОИГРАТЬ

🐙 FathomVerse — изучайте мировой океан и его обитателей, помогая ученым обучать ИИ.

▎ПОСМОТРЕТЬ

📺 «2073» — фильм о том, как будет выглядеть мир после ИИ-катастрофы.

📺 Главный специалист по ИИ в Meta* Ян Лекун: об эмоциях и абстрактном мышлении нейросетей.

👋 Подпишитесь на Hi, AI!

* Meta признана экстремистской и запрещена в России

#AIWeek
Реакций нет
159 089
16.03.2025 в 07:31