Посты
Some SEO Title
График публикаций площадки
Всего 127 постов в 1 канале
1 картинка
🤩 Хаяо Миядзаки еще почти 10 лет назад высказался против ИИ в анимации — но его уже никто не слушает
Глава OpenAI Сэм Альтман впервые прокомментировал хайп с картинками в стиле аниме студии Ghibli Хаяо Миядзаки, созданными новым генератором изображений в ChatGPT. И заочно поспорил с позицией художника о роли ИИ в искусстве будущего.
Сам Миядзаки (обладатель трех «Оскаров») — резко против применения компьютерных технологий в своем творчестве. На волне хайпа с Ghibli-картинками в интернете вспомнили, как художник еще в 2016 году заклеймил ИИ-анимацию.
Сэм Альтман, комментируя позицию Миядзаки, пояснил, что считает внедрение ИИ эволюцией создания контента. Еще 30 лет назад съемка даже простого видео требовала дорогой камеры, кассет, сложного оборудования для монтажа. Да и поделиться видео тогда было непросто в силу неразвитости интернета. Сегодня портативная видеостудия — смартфон — есть у каждого в кармане.
Альтман понимает двойственность ситуации для художников, которым приходится адаптироваться под растущее влияние ИИ, но видит в этом процессе больше плюсов, чем минусов.
«Что касается масштабов нашего проекта — мы скоро пересечем отметку в миллиард сгенерированных изображений. Это гораздо больше, чем, как я думал, интернет способен потребить», — заявил Альтман.
🤩 В Сети тем временем обсуждают законность подобной эксплуатации Ghibli-стиля. Однако, в 2023 году Японское агентство по культурным вопросам объяснило, что защищенные авторским правом работы могут использоваться без разрешения в целях обучения ИИ — если целью не является «наслаждение мыслями или чувствами, выраженными в произведении».
Формально ИИ-компании не должны использовать пиратский контент, как и конечные пользователи — воспроизводить с помощью ИИ оригинальные произведения или «прямо конкурирующие» с ними продукты. На практике, признают власти, следить за соблюдением ограничений сложно.
А как вы считаете, можно ли творить искусство с помощью ИИ?
❤️ — да, Альтман прав: это развитие
🔥 — нет, Миядзаки прав: ИИ не место в искусстве
🤔 — истина где-то посередине
👋 Подпишитесь на Hi, AI!
#новости #OpenAI #Гибли
Глава OpenAI Сэм Альтман впервые прокомментировал хайп с картинками в стиле аниме студии Ghibli Хаяо Миядзаки, созданными новым генератором изображений в ChatGPT. И заочно поспорил с позицией художника о роли ИИ в искусстве будущего.
Сам Миядзаки (обладатель трех «Оскаров») — резко против применения компьютерных технологий в своем творчестве. На волне хайпа с Ghibli-картинками в интернете вспомнили, как художник еще в 2016 году заклеймил ИИ-анимацию.
«Я бы никогда не хотел включать эту технологию в свою работу. Я твердо уверен, что это оскорбление самой жизни», — заявил Миядзаки.
Сэм Альтман, комментируя позицию Миядзаки, пояснил, что считает внедрение ИИ эволюцией создания контента. Еще 30 лет назад съемка даже простого видео требовала дорогой камеры, кассет, сложного оборудования для монтажа. Да и поделиться видео тогда было непросто в силу неразвитости интернета. Сегодня портативная видеостудия — смартфон — есть у каждого в кармане.
Альтман понимает двойственность ситуации для художников, которым приходится адаптироваться под растущее влияние ИИ, но видит в этом процессе больше плюсов, чем минусов.
«Что касается масштабов нашего проекта — мы скоро пересечем отметку в миллиард сгенерированных изображений. Это гораздо больше, чем, как я думал, интернет способен потребить», — заявил Альтман.
🤩 В Сети тем временем обсуждают законность подобной эксплуатации Ghibli-стиля. Однако, в 2023 году Японское агентство по культурным вопросам объяснило, что защищенные авторским правом работы могут использоваться без разрешения в целях обучения ИИ — если целью не является «наслаждение мыслями или чувствами, выраженными в произведении».
Формально ИИ-компании не должны использовать пиратский контент, как и конечные пользователи — воспроизводить с помощью ИИ оригинальные произведения или «прямо конкурирующие» с ними продукты. На практике, признают власти, следить за соблюдением ограничений сложно.
А как вы считаете, можно ли творить искусство с помощью ИИ?
❤️ — да, Альтман прав: это развитие
🔥 — нет, Миядзаки прав: ИИ не место в искусстве
🤔 — истина где-то посередине
👋 Подпишитесь на Hi, AI!
#новости #OpenAI #Гибли
1 картинка
📈 Слышали о Битрикс24? Онлайн-сервис для бизнеса и совместной работы.
В апреле скидка 30% на годовую лицензию Битрикс24 + AI-помощник для бизнеса на 100 000 ₽ — бонусом.
ИИ — в каждый бизнес. Акция действует по 30 апреля.
➡️ Подробнее по ссылке.
В апреле скидка 30% на годовую лицензию Битрикс24 + AI-помощник для бизнеса на 100 000 ₽ — бонусом.
ИИ — в каждый бизнес. Акция действует по 30 апреля.
➡️ Подробнее по ссылке.
1 картинка
🔬 ИИ в науке: не только помощник, но и источник фейков
Современную науку уже трудно представить без искусственного интеллекта: нейросети открывают новые лекарства и анализируют медицинские архивы, изучают данные телескопов для поиска экзопланет.
Но у ИИ в науке есть и обратная сторона — с его распространением фальсификация исследований вышла на новый уровень. Каждую неделю в научные журналы попадают тысячи нейросетевых работ, считают аналитики.
Удивительно, но их авторы попадаются, как школьники, которые сгенерировали реферат «на коленке».
На чем ловят ученых?
📌 ИИ-искажения — неудачные попытки с помощью ИИ перефразировать текст, чтобы спрятать плагиат. В результате «рак груди» становится «грудной опасностью», big data — «гигантской информацией», а «нейросеть» — «нейронной организацией».
📌 Комментарии нейросетей. Кажется, глупым, но в некоторые работы копируют фразы вроде: «Как большая языковая модель, я...» или «Конечно, вот возможное вступление для вашей статьи...»
📌 Речевые штампы — некоторые слова и словосочетания ИИ употребляет гораздо чаще людей. Например, чрезмерное использование «похвальный» и «дотошный» выдает ChatGPT.
📌 Сгенерированные изображения — иллюстрации с анатомическими ошибками или бессмысленными подписями.
📌 Галлюцинации ИИ — вымышленные химические формулы, некорректные расчеты или бессмысленные уравнения.
🔍 Как находят поддельные работы?
Бороться с ИИ-подделками помогают, как ни странно, другие нейросети. Например, Problematic Paper Screener проверяет текст на наличие характерных для ChatGPT штампов и особенностей стиля. А для верификации иллюстраций применяют Proofig AI.
🦥 «Халтурят» не только авторы, но и проверяющие
Интересно, что желание сэкономить время возникает и у тех, кто должен отсеивать недобросовестные исследования.
Например, недавно эколог Тимоти Пуазо рассказал, что получил рецензию на свою работу, составленную с помощью ИИ. Проверяющего выдала лень. Текст начинался фразой: «Вот пересмотренная версия вашего обзора с улучшенной ясностью и структурой».
⚖️ Где золотая середина?
Но прогресс неизбежен, и многие научные издательства разрабатывают руководства по использованию ИИ в публикациях. Например, авторам разрешают использовать нейросети для редактирования и улучшения языка, но не для написания работы целиком. Однако единых стандартов пока нет.
Академическое сообщество стоит перед выбором: либо выработать четкие нормы, либо наблюдать превращение научных публикаций в поток убедительных, но бессмысленных текстов. По крайней мере, пока японский стартап Sakana AI не доведет до совершенства своего ИИ-ученого.
Еще по теме:
⚛️ Почему генеративный ИИ ошибается?
⚛️ Как галлюцинации ИИ могут помогать ученым
👋 Подпишитесь на Hi, AI!
#новости #наука
Современную науку уже трудно представить без искусственного интеллекта: нейросети открывают новые лекарства и анализируют медицинские архивы, изучают данные телескопов для поиска экзопланет.
Но у ИИ в науке есть и обратная сторона — с его распространением фальсификация исследований вышла на новый уровень. Каждую неделю в научные журналы попадают тысячи нейросетевых работ, считают аналитики.
Удивительно, но их авторы попадаются, как школьники, которые сгенерировали реферат «на коленке».
На чем ловят ученых?
📌 ИИ-искажения — неудачные попытки с помощью ИИ перефразировать текст, чтобы спрятать плагиат. В результате «рак груди» становится «грудной опасностью», big data — «гигантской информацией», а «нейросеть» — «нейронной организацией».
📌 Комментарии нейросетей. Кажется, глупым, но в некоторые работы копируют фразы вроде: «Как большая языковая модель, я...» или «Конечно, вот возможное вступление для вашей статьи...»
📌 Речевые штампы — некоторые слова и словосочетания ИИ употребляет гораздо чаще людей. Например, чрезмерное использование «похвальный» и «дотошный» выдает ChatGPT.
📌 Сгенерированные изображения — иллюстрации с анатомическими ошибками или бессмысленными подписями.
📌 Галлюцинации ИИ — вымышленные химические формулы, некорректные расчеты или бессмысленные уравнения.
🔍 Как находят поддельные работы?
Бороться с ИИ-подделками помогают, как ни странно, другие нейросети. Например, Problematic Paper Screener проверяет текст на наличие характерных для ChatGPT штампов и особенностей стиля. А для верификации иллюстраций применяют Proofig AI.
🦥 «Халтурят» не только авторы, но и проверяющие
Интересно, что желание сэкономить время возникает и у тех, кто должен отсеивать недобросовестные исследования.
Например, недавно эколог Тимоти Пуазо рассказал, что получил рецензию на свою работу, составленную с помощью ИИ. Проверяющего выдала лень. Текст начинался фразой: «Вот пересмотренная версия вашего обзора с улучшенной ясностью и структурой».
⚖️ Где золотая середина?
Но прогресс неизбежен, и многие научные издательства разрабатывают руководства по использованию ИИ в публикациях. Например, авторам разрешают использовать нейросети для редактирования и улучшения языка, но не для написания работы целиком. Однако единых стандартов пока нет.
Академическое сообщество стоит перед выбором: либо выработать четкие нормы, либо наблюдать превращение научных публикаций в поток убедительных, но бессмысленных текстов. По крайней мере, пока японский стартап Sakana AI не доведет до совершенства своего ИИ-ученого.
Еще по теме:
⚛️ Почему генеративный ИИ ошибается?
⚛️ Как галлюцинации ИИ могут помогать ученым
👋 Подпишитесь на Hi, AI!
#новости #наука
1 картинка
👁🗨 Почему ИИ-компании только притворяются открытыми
Около 50 лет назад в Калифорнии появился клуб компьютерных энтузиастов Homebrew Computer Club. Его участники заложили основную идею движения открытого кода: программы должны быть открытыми, чтобы каждый мог их использовать, изучать, менять и делиться с другими.
Благодаря открытому коду разработчики по всему миру создают инструменты, толкающие вперед науку и технологический прогресс. Самые яркие примеры — язык программирования Python и ядро ОС Linux.
🍹 Как ИИ-компании нас путают
Сегодня многие ИИ-компании называют свои продукты «открытыми», но на деле они показывают только общую архитектуру и скрывают самое важное.
Анализ, проведенный Инициативой открытого исходного кода (OSI), показал, что популярные «открытые» языковые модели — Llama 2 и Llama 3.x (Meta*), Grok (xAI), Phi-2 (Microsoft), Mixtral (Mistral AI) — не соответствуют фундаментальным принципам сообщества. Разработчики не раскрывают дата-сеты для обучения и другие детали. Их продукты в лучшем случае можно назвать «моделями с открытыми весами».
Но существуют и в полной мере open source модели, их создают в основном некоммерческие организации, такие как Институт искусственного интеллекта Аллена, или энтузиасты.
🖥 Почему компании это делают
В 2024 году Европейский Союз принял Регламент об искусственном интеллекте, жестко регулирующий отрасль. Но для открытого ПО акт содержит послабления, которыми пытается пользоваться бизнес. Специалисты называют такую практику «отмыванием открытости» (openwashing).
Для борьбы с подменой понятий OSI разработала стандарт, определяющий настоящий открытый ИИ. Согласно нему, разработчики должны публиковать не только код, но и информацию об обучающих данных.
Если сами данные опубликовать невозможно (например, из-за защиты личной информации), компании должны хотя бы раскрыть источники данных и как они обрабатывались.
Идею (ожидаемо) еще в 2024 году критиковали в Meta, отмечая, что подходы прошлых лет плохо отражают нюансы современного быстрого развития ИИ.
Власти тоже могут помочь исправить ситуацию. Например, в США уже требуют от получателей научных грантов публиковать данные исследований в открытом доступе. Повсеместное распространение подобных правил поможет ИИ остаться прозрачной и доступной технологией, а не закрытым инструментом в руках нескольких корпораций.
Еще про открытый код:
🟥 Успех DeepSeek: как китайская модель бросает вызов ChatGPT
🟥 OpenAI может открыть код своих старых моделей
👋 Подпишитесь на Hi, AI!
* Компания Meta признана экстремистской и запрещена в России
#новости #opensource
Около 50 лет назад в Калифорнии появился клуб компьютерных энтузиастов Homebrew Computer Club. Его участники заложили основную идею движения открытого кода: программы должны быть открытыми, чтобы каждый мог их использовать, изучать, менять и делиться с другими.
Благодаря открытому коду разработчики по всему миру создают инструменты, толкающие вперед науку и технологический прогресс. Самые яркие примеры — язык программирования Python и ядро ОС Linux.
🍹 Как ИИ-компании нас путают
Сегодня многие ИИ-компании называют свои продукты «открытыми», но на деле они показывают только общую архитектуру и скрывают самое важное.
Анализ, проведенный Инициативой открытого исходного кода (OSI), показал, что популярные «открытые» языковые модели — Llama 2 и Llama 3.x (Meta*), Grok (xAI), Phi-2 (Microsoft), Mixtral (Mistral AI) — не соответствуют фундаментальным принципам сообщества. Разработчики не раскрывают дата-сеты для обучения и другие детали. Их продукты в лучшем случае можно назвать «моделями с открытыми весами».
Но существуют и в полной мере open source модели, их создают в основном некоммерческие организации, такие как Институт искусственного интеллекта Аллена, или энтузиасты.
🖥 Почему компании это делают
В 2024 году Европейский Союз принял Регламент об искусственном интеллекте, жестко регулирующий отрасль. Но для открытого ПО акт содержит послабления, которыми пытается пользоваться бизнес. Специалисты называют такую практику «отмыванием открытости» (openwashing).
Для борьбы с подменой понятий OSI разработала стандарт, определяющий настоящий открытый ИИ. Согласно нему, разработчики должны публиковать не только код, но и информацию об обучающих данных.
Если сами данные опубликовать невозможно (например, из-за защиты личной информации), компании должны хотя бы раскрыть источники данных и как они обрабатывались.
Идею (ожидаемо) еще в 2024 году критиковали в Meta, отмечая, что подходы прошлых лет плохо отражают нюансы современного быстрого развития ИИ.
Власти тоже могут помочь исправить ситуацию. Например, в США уже требуют от получателей научных грантов публиковать данные исследований в открытом доступе. Повсеместное распространение подобных правил поможет ИИ остаться прозрачной и доступной технологией, а не закрытым инструментом в руках нескольких корпораций.
Еще про открытый код:
🟥 Успех DeepSeek: как китайская модель бросает вызов ChatGPT
🟥 OpenAI может открыть код своих старых моделей
👋 Подпишитесь на Hi, AI!
* Компания Meta признана экстремистской и запрещена в России
#новости #opensource
1 видео
🔺 Загадка треугольника и квадрата: как математики нашли ответ спустя 122 года
Представьте себе равносторонний треугольник из бумаги. Вам нужно разрезать его на несколько частей и сложить из них квадрат. На какое минимальное число частей для этого нужно разрезать треугольник?
Эту «задачу галантерейщика» в 1902 году опубликовал ведущий газетной колонки с головоломками математик-самоучка Генри Дьюдени. Сам того не подозревая, он сформулировал одну из сложнейших теорем столетия.
✂️ Первое решение
Спустя две недели после публикации Дьюдени получил решение делением на четыре части от клерка МакЭлроя из Манчестера. Решение с меньшим количеством частей никто из читателей так и не предложил.
Решение МакЭлроя оказалось изящным, но неполным. Остался вопрос: действительно ли четыре части — это минимум?
🔃 В поисках истины
Десятилетия задача кочевала из одного математического сборника в другой. Она притягивала и любителей, и профессоров, но окончательного доказательства оптимальности решения МакЭлроя за более, чем 100 лет, никто не нашел.
Уже в 21 веке для решения задачи объединились три математика: Эрик Демейн из США и Рюхей Уэхара и Тонан Камата из Японии, занимающиеся математическим исследованием оригами и теорией графов — и они решили применить один из подходов для задачи оригами к «делу Дьюдени».
Первый шаг был относительно простым. Математики доказали невозможность решения разрезанием на две части. И вправду: ведь тогда треугольник и квадрат должны иметь одинаковую площадь. Самый длинный разрез в квадрате — диагональ — оказывается короче стороны треугольника такой же площади.
Но задача с тремя частями оказалось гораздо сложнее. «Вы не можете просто перебрать все варианты на компьютере. Их буквально бесконечное множество», — отмечает Демейн.
🔚 Окончательный ответ
В итоге математики классифицировали все возможные способы разрезать треугольник в зависимости от того, как разрезы пересекают стороны фигуры. Они разделили бесконечное множество вариантов на 5 основных типов для треугольника и 38 типов для квадрата.
Потом ученые рассмотрели, как идут линии разреза внутри фигур — какие углы и расстояния между точками получаются. Если бы удалось найти разрез треугольника, у которого все линии совпадают по длине и углам с каким-то разрезом квадрата, это означало бы, что полученные кусочки можно переставить и собрать из них квадрат. Но проверка показала: ни один из вариантов не подходит. Значит, треугольник нельзя разрезать на три части так, чтобы из них сложился квадрат.
В декабре 2024 года, спустя 122 года после публикации головоломки, трое математиков опубликовали свое доказательство. Клерк МакЭлрой из Манчестера в 1902 году действительно оказался прав.
Еще по теме:
🔺 Математик Джон Леннокс — ИИ меняет восприятие мира детьми
🔺 «Последний экзамен человечества» — самый сложный тест для ИИ
👋 Подпишитесь на Hi, AI!
#новости #математика
Представьте себе равносторонний треугольник из бумаги. Вам нужно разрезать его на несколько частей и сложить из них квадрат. На какое минимальное число частей для этого нужно разрезать треугольник?
Эту «задачу галантерейщика» в 1902 году опубликовал ведущий газетной колонки с головоломками математик-самоучка Генри Дьюдени. Сам того не подозревая, он сформулировал одну из сложнейших теорем столетия.
✂️ Первое решение
Спустя две недели после публикации Дьюдени получил решение делением на четыре части от клерка МакЭлроя из Манчестера. Решение с меньшим количеством частей никто из читателей так и не предложил.
Решение МакЭлроя оказалось изящным, но неполным. Остался вопрос: действительно ли четыре части — это минимум?
🔃 В поисках истины
Десятилетия задача кочевала из одного математического сборника в другой. Она притягивала и любителей, и профессоров, но окончательного доказательства оптимальности решения МакЭлроя за более, чем 100 лет, никто не нашел.
Уже в 21 веке для решения задачи объединились три математика: Эрик Демейн из США и Рюхей Уэхара и Тонан Камата из Японии, занимающиеся математическим исследованием оригами и теорией графов — и они решили применить один из подходов для задачи оригами к «делу Дьюдени».
«Чем проще кажется нерешенная задача, тем более захватывающей она становится для тех, кто любит математику», — говорит Камата.
Первый шаг был относительно простым. Математики доказали невозможность решения разрезанием на две части. И вправду: ведь тогда треугольник и квадрат должны иметь одинаковую площадь. Самый длинный разрез в квадрате — диагональ — оказывается короче стороны треугольника такой же площади.
Но задача с тремя частями оказалось гораздо сложнее. «Вы не можете просто перебрать все варианты на компьютере. Их буквально бесконечное множество», — отмечает Демейн.
🔚 Окончательный ответ
В итоге математики классифицировали все возможные способы разрезать треугольник в зависимости от того, как разрезы пересекают стороны фигуры. Они разделили бесконечное множество вариантов на 5 основных типов для треугольника и 38 типов для квадрата.
Потом ученые рассмотрели, как идут линии разреза внутри фигур — какие углы и расстояния между точками получаются. Если бы удалось найти разрез треугольника, у которого все линии совпадают по длине и углам с каким-то разрезом квадрата, это означало бы, что полученные кусочки можно переставить и собрать из них квадрат. Но проверка показала: ни один из вариантов не подходит. Значит, треугольник нельзя разрезать на три части так, чтобы из них сложился квадрат.
В декабре 2024 года, спустя 122 года после публикации головоломки, трое математиков опубликовали свое доказательство. Клерк МакЭлрой из Манчестера в 1902 году действительно оказался прав.
Еще по теме:
🔺 Математик Джон Леннокс — ИИ меняет восприятие мира детьми
🔺 «Последний экзамен человечества» — самый сложный тест для ИИ
👋 Подпишитесь на Hi, AI!
#новости #математика