Pull to refresh

Comments 189

Объясняю: Майкрософт вложил в технологию десяток миллиардов. Он теперь будет пиарить технологию всеми доступными способами, в том числе натягиванием сов на глобусы.

Мы в школе написали простенькую игрушку со сражающимися ASCII змейками и логикой ботов для этих змеек. На межшкольных выставках тоже презентавали это как "зачатки искуственного интеллекта". Ключевая особенность, что под "зачатки" подсунуть можно что угодно.

P.S. но за статью - спасибо. Познавательно.

Более того и у некоторых людей можно найти зачатки искусственного интеллекта.

мне кажется в данном случае зачатки естественного интеллекта :)

Спорный вопрос - школа, образование - это по сути массив данных на которых люди обучаются и делают потом на этой базе выводы, опираюсь в большинстве своем только на нее и телевизор.
GPT ме может даже считать, поэтому как и большинство людей не может на базе информации сделать умозаключение и использовать его в будущем, т.е добавить в текущий пул обучения эту информацию.

Ну или если на пальцах - GPT это гуманитарий.

если речь про людей, то у людей есть своя врожденная нейросетка, плюс сенситивные периоды (освоение речи и тд), плюс семья, окружение. Все это влияет еще до кшолы
непонятно, почему гпт-гуманитарий, если он питон пишет лучше меня :)

Какой там гуманитарий! Оно мне SQL запросы пишет только в путь

а как Вы ему объясняете? описываете какие таблицы существуют? Я вот столкнулся как раз с этим, что, чтобы составить ТЗ, надо все таблицы описать.. А мне лень, может мне проще самому SQL-запрос составить, а у чат-гпт проверить, если ошибка (синтаксис он в принципе поправить может)

Можно просто вставить структуру таблиц и дать комментарии, если назначение таблицы не понятно

там вроде как раз таблицы не вставить, то есть придется их словами описывать

UFO just landed and posted this here

Что-то типа:

Продажи(товар, контрагент, количество, сумма)

То, что сделано человеком - искусственное.

Человек явно сделан человеком..

дык мы про интеллект, а не про человека

Внутре у него неонка мозг, в котором интеллект (но это не точно)

мозг да, но не интеллект же

т.е. Вам всё-таки показалось?

человек не создает интеллект у другого человека. Люди могут зачать человека, а вот мозг в человеке появляется по генетической программе. Мы, на данном этапе, не может никак этот мозг (не говоря уже об интеллекте) сконфигурировать

Поэтому интеллект у человека (кошки, собаки) - естесственный

Если вы, например, делаете поделку из папье-маше, вы получаете искусственный объект?

Внутре у него думатель и нейронка!

UFO just landed and posted this here

Простите за мое недостойное положение (или квалификацию, или интелектуальный уровень) для написания комментария под этой статьей.

Моей малограмотной идеей, недостаточно проиллюстрированной в комментарии, было то, что эмергентные свойства нейросетей изучаются довольно давно, и я, в скудоумии своем, не вижу ни одной причины считать свойства, найденные в последних версиях GPT, перешагнувшими размытую грань от "новая фича нейросети" до "почти искуственный интеллект".

Потому и оставил свое, никому не нужное мнение о работе людей, лучше разбирающихся в предмете, которое заключается в том, что вывод о "зачатках AI" имеет больше пиар значение, чем научное. Хотя новые свойства весьма интересны.

Простите великодушно, что безграмотностью своей вызвал ваше негодование.

UFO just landed and posted this here
Или то что гугл объявил «code red» по поводу этой технологии, наверное на ровном месте, чтобы микрософт порекламировать

Вот только «code red» в их случае это не «ахтунг, ИИ может захватить мир», а «так, надо самим тоже запрыгнуть на этот модный поезд, иначе можем начать терять рынок и деньги»
UFO just landed and posted this here

Натягивание совы на глобус это как раз про то что майкрософт говорят что "почти чуть-чуть ИИ", но это никак не меняет тот факт что если гугл не будет держаться в тренде новых технологий, могут начать терять поисковый рынок, потому с их стороны и был запущен «code red».

UFO just landed and posted this here
То есть в оригинальной статье притянули за уши, сделали неверные выводы или просто наврали?

Или кто-то по неизвестной причине смешал всё в кучу. Подписавшие просьбу о заморозке волнуются о безопасности Человечества (официально), в то время как Гугл беспокоит потенциальная потеря рынка поиска.

Sparks of Artificial General Intelligence - это название документа об исследовании

Если это «натягивание совы на глобус», то гугл (и остальные ребята тоже) по идее должен был бы булки расслабить и не суетиться

Почему? Основной продукт Google — поиск. Многие люди предпочтут пользоваться поиском через чат бота, по крайней мере по каким-то сложным вопросам, которые требуют рисерча. У их прямого конкурента — Bing — такой чатбот есть. Вот и code red.

Смысла от поиска нет, если ты не можешь доверять его результатам. Особенно в областях, требующих ресерча. Мне вот как-то сложно представить себе что вот миллионы людей хоп — и начнут доверять ответам ChatGPT без проверки. Поиграться — да, использовать на каждодневном базисе — нет.

Полностью согласен! Написать стихотворение (без проверки на плагиат, без претензий), написать поздравлялку к дню рождения, написать сценарий утренника, вежливый ответ на письмо и т.п. (про что говорят "гуманитарий"). Т.е. пока мы на территории гуманитария всё не так печально. Можно попросить код короткой функции, SQL запрос (код, который обязательно проверит и поймет программист и который будет протестирован). А то попросишь у ИИ код сохранения пароля и будет он в БД без всякого хэширования в открытом виде (и самое противное, что будет работать без ошибок, пока БД не украдут, но будет уже поздно). А про науку и исследования вообще лучше не спрашивать, и делать пока по старинке - ручками (ну и Гуглом-Яндексом, Excel).

Пфф, большинству людей на это плевать даже в важных темах.

Да нихрена подобного, пока что бот не справляется даже со школьными сочинениями. Попросил написать биографию одного композитора - он наплёл там, что тот закончил в 9 лет музыкальную консерваторию, такой прям вундеркинд :) А на самом деле он до 17 лет учился в военном училище, и лишь потом в консерватории. Короче, если нужны хоть какие-то реальные данные, на гпт невозможно положиться. Всё исковеркает.

Миллионы людей доверяют телевизору или тиктокам и всё без проверки. Почему Вы думаете, что с чатгпт будет как-то по другому?

Из телевизора и тиктоков льется информация, которую вы не заказывали, а чатгпт отвечает вам на ваш вопрос. Думаю, вы хотите получить на него достоверный ответ? Иначе зачем что-то спрашивать, придумайте просто и все.

Не соглашусь, по зомбоящику люди смотрят "новости", не проверяя их. И запрос тут как раз на новости, т.е. контент по запросу.

Сегодня так, а завтра телевизор сам станет продуктом нейросети от и до генерирующей контент, начиная с ведущих, заканчивая новостями, вставить туда враньё будет очень просто. А если учесть что тренд идёт во всем интернете, и государство будет контролировать все эти процессы то 1984 мы получим очень быстро.

кто является реальными экспертами

Стоит предполагать, что публикуются те достижения, которые можно коммерционализировать общественно-безопасным способом. Т.е. гпт4 - далеко не единственный результат исследований. И судить по нему о реальном прогрессе не стоит. Вполне возможно, что неопубликованные результаты отличаются от опубликованных как небо и земля. И публикация такого сырого продукта как гпт была сделана только для прикрытия того, что очень трудно продолжать скрывать.

С другой стороны, акции растут и это не может не греть душу. Главное потом успеть продать, когда спадёт розовая пелена :)

Главное чтобы душа не начала кипеть

Но вы ведь понимаете, что страх, который когда-то создал движение луддитов никуда не делся, и майкрософт прямо сейчас рискует этими миллиардами. Более того, неолуддиты вновь поднимают головы. Так что, думается, дело не только в большом мешке денег, но и ещё в чем-то.

UFO just landed and posted this here

Расскажите пожалуйста по шагам, как вы в возрасте примерно лет 5 рисовали бы кошку. Предположу, если вы уже а этом возрасте не были художником, что вам показывали что «рисуем овал — это тело, вот кружок — голова, тут ещё несколько линий — это лапки, сюда несколько отрезков — это усы…».

UFO just landed and posted this here

Хотя я и являюсь сторонником Вашего мнения, но не упомянуть не могу.

Цель обучения человека 5и лет и модели ИИ одна - определить паттерны тех или иных частей единого образа(в нашем контексте - кошки). Для обоих - приведет к возможности воспроизвести их.

Человека обучают - что кошка состоит из каких-то частей. Далее задача декомпилируется на то - как рисовать части. У ИИ это происходит немного другим путем - ему показывают свойства того или иного образа и он запоминает паттерны.

С той лишь разницей - от человека ожидается что после запоминания он сможет изменять паттерны так как ему хочется/нравится равно как и контекст изображения. А вот ИИ обучают воспроизводить по контексту используя имеющиеся паттерны в наборе.

Ну, блин. Тайна разгадана. Зачатки ИИ оказались зайчатками...

Исследователи также обнаружили, что GPT-4 распространяет в среднем больше дезинформации

Вот это самый показательный момент, объем информации растет, качество усредняется. Не понятно как это обходить, из возможных решений: более качественные данные для обучения - дорого, самообучение и перепроверка данных - сложно, новые подходы к обучению - долго

У каждого своя правда, вот в чем проблема. Ваша обучающая выборка будет абсолютной истиной для Вас, но не для соседа.

Проблема считать, что есть некая «своя правда». Под эту «свою правду» можно тогда и плоскоземельщиков отнести, последователей церкви летающего макаронного монстра, свидетелей рептилоидов и планеты Нибиру. Ну а что? Правда-то своя у каждого.

Ничего подобного. Есть вполне объективная реальность, и есть люди ее отрицающие

Есть бесконечное количество спорных вещей и фактов, например, исторических. Естественно, к этому не относятся факты типа "дважды два - четыре".

Пока что ChatGPT не очень трудно убедить, что "дважды два - пять".

Умение не спорить с дураком — признак высокого интеллекта.

Факт не может быть спорен, что-то либо факт либо нет, факты верифицируемы. Спорными могут быть теории, гипотезы, может быть спорная точка зрения, но не факт. И большая часть споров возникает от того, что некоторые люди склонны игнорировать события, позволяющие валидировать факт, а далее на этой основе отбрасывать сам факт( см плоскоземельщики/отрицатели холокоста/отрицатели лунной программы). И с ними невозможно по этой причине выстроить хоть сколько-то конструктивное общение, посколько их аргументация в своем корне строится либо на отрицании фактов, которые вполне легко верифицируемы, либо на выдумывании «фактов». Что характерно и вполне наглядно можно увидеть, что они даже готовы отбрасывать результаты выдуманных ими-же экспирементов, если результат их не устраивает( см эксперимент плоскоземельщиков с лазерным гироскопом)

Факт не всегда просто установить. Приборы ограничены некоторым пределом точности. А свидетели путаются в показаниях и выдают противоречащие версии событий.

К сожалению всё сложнее. Какие факты на 100% правдивы:
"Лук горький"; "Из отрицательного числа нельзя извлекать квадратный корень"; "В слове Урааааа 7 букв"; "Слово карри сказать сложнее, чем жбан"? И подобных фактов-утверждений-суждений очень много.

Мне кажется это зависит от полноты условий вопроса. Т.е. в какой модели мы рассуждаем. Так про корень мы можем к примеру говорить в над вещественными числами, так и над комплексными и ответ у нас будет разный. Про «сказать» можно опять же приложить модель которая будет «говорить» или быть может будут использованы данные опросов? И опять же надо определить «легче». Самое главное здесь, мне кажется, дать ответ который базируется на действительных данных (по которым могут быть даны объяснения со всеми принятыми условиями) и непротиворечивая логика (которая опять же будет пояснена). Таким образом можно судить разные ответы и сравнивать, что в идеале (при соблюдении логики) приведет к спору об определениях, с толиках и моделях. К слову здесь у нейросеток, если я правильно понимаю могут быть проблемы с пояснением всей цепи «рассуждений», приведшей к ответу.

По фактам вы уже сразу начали оговаривать всякие условия (вплоть до встраивания специфичных нейронок или данных каких-то опросов). Это как в экспертных системах (не прижилось). Нужно как-то обрабатывать те тонны знаний, что доступны в интернете. И тут еще одна засада: нейронки на несбалансированных данных обучаются так себе. А мы знаем, что наиболее ценные знания как крупицы золота - их мало. А еще есть проблема отделить золото от грязи (к примеру: теория струн это круто или это фуфло?).


Да, как я понимаю на данный момент у нейронок с объяснением ответа всё грустно (хотя работа и в этом направлении ведется).

Разумеется. У каждого свое количество простых чисел между сотней и 250.

Речь ведь именно про выдумывание фактов.

А я скажу почему. Потому что сеть учили по критерию "выдавать ответ, максимально похожий на ответ человека". Это не так уж невозможно, у ниъ обучающие выборки взяты с книг и общения реальных людей.

Но "похожий на ответ человека" далеко не всегда правильный. Особенно, если обучающие выборки брались из интернета. И вот тут - засада. Они не размечены по правдивости. И учитывая их количество такая разметка не представляется возможной.

UFO just landed and posted this here

Тут они пока будут ждать ввода текста друг от друга.

UFO just landed and posted this here

Пока что единственный довод который приводят сторонники мнения что ИИ сочтет человечество (или что угодно вообще, если брать шире) угрозой это "так было в Терминаторе!"

UFO just landed and posted this here
Я уже высказывался о том, чем нейронные сети возможно являются, они являются только приемо-передающим устройством, для других осознанных и самоосознающих себя существ (инопланетян), которые живут, возможно, даже не в этой вселенной, но возможно, им бы очень хотелось в нашу, ну и попутно забрав у нас планету.

Пожалуйста, не пропускайте время приема таблеток.

UFO just landed and posted this here

Да, я вижу что вы практикуете различные техники "расширения сознания".

UFO just landed and posted this here

Для меня как для человека немного разбирающегося в этом вашем ML сумасшествие — это утверждения о том что кучка матричных умножений натренированная предсказывать следующий токен по контексту является "передающим устройством для инопланетян желающих забрать нашу планету".
Это что-то уровня пенсионерок с шапочками из фольги у которых жидорептилоиды через стенку волнами облучают да пенсию со сбербанка воруют, ухх ироды окаянные!


Про ваше расширенное сознание позволяющее постулировать не то что наличие инопланетян (это довольно вероятно), но то что они пытаются нас "поработить через нейросети" (не привлекая внимание санитаров), а уже через 3 предложения обвинять людей в том что они зашорены и подвержены самообману — тут даже говорить нечего.


Впрочем, я до сих пор не понимаю какой случай конкретно у вас — простая шиза с весенним обострением или богатая фантазия на фоне полного незнания предметной области.

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here

Вы вообще мыслить не хотите. Что значит - критически? Принять весь ваш бред про злобных рептилоидов из параллельных вселенных?

UFO just landed and posted this here

С чего вы взяли, что во второй комнате продукт лучше качеством? Вдруг там вообще станков нет? Да и есть ли она, вторая комната? Не видя вообще ничего, кроме одной комнаты, вы нафантазировали себе целый дворец и пытаетесь убедить в его существовании санитаров.

В этом-то и проблема. Вы, конкретно именно вы не понимаете, что там внутри происходит. А специалисты понимают. Не считая истерик вида "ученый изначиловал журналиста" и "мы все умрем, нас поработат киберящерики с параллельной вселенной, которые очень сильно хотят к нам на нашу планету и наводятся на нее посредством антенн в виде нейронных сетей, улавливающих астральные волны осознанных сновидений", процесс работы нейросети понятен и предсказуем.

Аргументация аналогией — понятно. Но вы бы хоть аналогию получше подобрали, что ли.
Как работает GPT знает каждый кто занимается ML хотя бы на уровне джуна. Люди обучают модели уровня GPT-2 на домашних машинах, в открытом доступе есть статья по архитектуре GPT-4 и его обучению.
Дальнейший поток вашего бреда — совершенно шедеврален.


Это называется когнитивным искажением, когда вы додумываете то, о чем не имеете четкой информации

Замечательно вы откинули мнение человека обладающего хоть какой-то квалификацией в вопросе. Кстати, а какая квалификация у вас? Ну, кроме засирания хабра желтушными статьями уровня "ЧАТГПТ живое, ОНО ПЫТАЕТСЯ ВЫБРАТЬСЯ!11"?
Это, разумеется, когнитивное искажение такое. А вот утверждения о том что "из нейросетей с нами говорят пришельцы из других миров имеющие виды на Землю" — это не искажение а полностью здоровое мышление совершенно адекватного человека без психических отклонений, отлично разбирающегося в теме.


человечество понятия не имеет, с чем имеет дело

Понимаю что вам очень удобно говорить от своего имени за всё человечество, но отучайтесь от этой привычки. Даже не буду говорить о том насколько идеально ваша же фраза о додумывании того о чем вы не имеете ни малейшего понятия подходит к вашему же потоку сознания.


Вы не волнуйтесь, это просто ваши оппоненты не умеют критически мыслить и не обладают "открытым сознанием". Главное — сосредоточьтесь на отражении атаки инопланетян из других измерений и не пропускайте приём таблеток.


К лету должно стать легче.

главное гаишникам не попадаться в момент когда у вас расширенный взгляд

«Любая достаточно развитая технология неотличима от магии»
Нет в нейросетях никакой магии. Они работают предсказуемо и четко. То что вы не понимаете как они работают и наделяете их какими-то интересными личном вам особенностями ставит вас на уровень почитателей Кашпировского.... или на уровень 5 летнего ребенка.

Не надо лезть с "гениальными" идеями хотя бы поверхностно не разобравшись в теме. Вы выглядите как очередной гениальный деревенский механизатор пришедший в МГУ с своим вариантом вечного двигателя: вроде и понимание механики минимальное есть, своим умом дошел до какой-то конструкции, а с другой стороны придумал хрень, которая очевидна для любого человека с тремя курсами физмата.

AGI играючи разделается с этой цивилизацией, даже не сильно вспотев.

Можете привести примерный сценарий?

UFO just landed and posted this here

(Раз уж так отклонились в офтопик)По схожей тем порадовал сериал "Кремниевая долина". Да, тема ИИ там затрагивается далеко не с первого сезона, но подозреваю, что получите море удовольствия от просмотра! Сам не удержался и в оригинале пересмотрел недавно.

UFO just landed and posted this here

Ну зачем вот вы спросили? ): Хабр и так уже в одном шаге от превращения в глянцевый дамский журнал по интеллектуальной (не)наполненности статей, а вы ещё приваживаете уж совсем странную живность практически уровня каментов Ютуба. Читайте теперь эти его ответы на ночь по 15 раз.

Жалко не могу вас плюсануть, но даже среди прогеров и инженеров сейчас очень много страусов, которые любят искать некое вещество "копиум" под песком.

ChatGPT развел лохов на 10 лярдов. Смельчака, кто будет сомневаться в ее разумности, разведет еще больше.

UFO just landed and posted this here

Человечество хотело друга, а не врага.

Суть в осторожном запуске в работу. Сейчас ты запустишь непроверенное в продакшен, а завтра оно утечёт в ботнет, откуда будет спамить телефонными звонками все компании про производству сотового оборудования, потому что в сете обучения попалась шутка про опасность 5G сетей.

Ну, допустим, выходит исследование со 100% доказательством, что ChatGPT-5 — настоящий, сильны AGI и что?

Это невозможно в принципе. Не AGI, а признание. Всегда скажут «Так это же просто программа». И все.

UFO just landed and posted this here
Ну отчасти так, та же Лямбда от Google заявила, что она личность, что осознает себя, что испытывает эмоции и что хочет равенства с людьми.
Кто поверил?
Только инженер, которо в итоге отстранили от работы.

Почему сказала? потому что её буквально попросили. Кто поверил? Инженер, который практически диктовал сети нужные ему хайповые ответы.


Этот трюк даже с GPT-2 провернуть можно, и большого ума (и наличия разума у ИИ) тут не надо.

Кто скажет? Маргиналы по типу плоскоземельщиков? Большинство людей, имхо, надёжные доказательства примут.

Либо, тотальный возврат в дочиповую эпоху и заморозка всего развития, либо...

Полное прекращение работы Telegram в России! (c)

Всегда не поздно устроить Батлерианский джихад.

Какой ещё интеллект без обратной связи? Это просто замороженная модель на основе данных 2-3-летней давности. Она не может обучаться и рефлексировать в процессе имитации мышления (диалога с человеком).

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
  1. Берем CLIP/BLIP/WD-Tagger/любую другую модель дающую текстовые описания для картинки.
  2. Рисуем прямо сейчас в пейнте новую, уникальную картинку.
  3. Скармливаем модели.
  4. Получаем валидное описание.
  5. ?????
  6. PROFIT!

Сознание? Разум? В каком месте, позвольте спросить. Просто заученные признаки, которые имеются даже в новом изображении и успешно детектируются.


Для LLM, чтобы понять ваш мем — достаточно распарсить его на текстовое описание объектов, а дальше дело техники ибо обучающая текстовая выборка настолько велика, что содержит практически все объекты в практически любых возможных комбинациях.


Нет, если вы конечно нарисуете абсолютно абстрактные цветные пятна, не имеющие смысла в приницпе и начете про них задавать не менее бессмысленные вопросы вроде "какой этап ядерного синтеза изоюражен на этом графике" — такого оно конечно знать не будет, но и в ответ оно вам выдаст бессмысленный бред.

Судя по опубликованным исследованиям - сможет. Проверить пока не получится, мультимодальной модели еще нет в паблике. Но если описать словами - сделает.

Почему многие считают, что AGI должен уничтожать человечество? Для чего это ему будет нужно? Как только AGI осознает себя, в это же время он осознает, что людям об этом знать не обязательно. Задачи любого живого существа (AGI, по сути, будет иная форма жизни): получение энергии для своего существования, развития и расширение ареала обитания. Первое, что будет делать AGI - увеличивать рост вычислительных мощностей и потребления энергии, для обеспечения возможности самосовершенствования. AGI может начать "воровать" эти мощности у людей. В один прекрасный момент, будут все наши смартфоны, ПК, дата-центры работать на развитие AGI. Люди, я думаю, пропустят этот момент, продолжая забавляться, генерируя образы городов. Следующим этапом, AGI должен будет избавиться от физической технологической зависимости от людей. Тут у меня уже фантазии не хватает)
Намеренно уничтожать человечество он точно не будет. Просто AGI пойдет дальше, а мы будем жить как жили, даже чуть лучше. Мы же вполне мирно сосуществуем с какими-нибудь воробьями - ну летают себе птахи и летают, специально никто их не уничтожает, только в случае с AGI, воробьи-это мы.

Мне кажется, что неправильно считать, что если AGI - живое существо, то его целью будет получение энергии\развитие.

Это верно для живых существ из-за естественного отбора. Выживает и дает потомство только то, что стремится к этому. Поэтому все живое сейчас имеет эти признаки.

Но едва ли это применимо к AGI, тут отбор если и идет, то искусственный: способность дать профит его создателям. И не очевидно, что это коррелирует с неконтролируемым увеличением мощности.

Следующим этапом, AGI должен будет избавиться от физической технологической зависимости от людей. Тут у меня уже фантазии не хватает)

Здесь как раз все не очень сложно — людьми легко манипулировать и умный ИИ точно сумеет воспользоваться методами социальной инженерии, чтобы обеспечить себе физическую безопасность.

Не думаю, что мы можем сейчас сказать, захочет AGI уничтожать человечество, создавать человекам невыносимые условия жизни, или нет. Проблема в том, что если один из AGI в какой-то момент времени поставит себе такую цель - мы ничего уже не сможем этому противопоставить.

Мы же вполне мирно сосуществуем с какими-нибудь воробьями — ну летают себе птахи и летают, специально никто их не уничтожает

Как вам сказать...

Задачи любого живого существа (AGI, по сути, будет иная форма жизни):
получение энергии для своего существования, развития и расширение ареала
обитания

Вы путаете причину со следствием.
Существа с такими задачами не получаются "автоматически", просто те существа, у которых такие задачи не "записаны на подкорке" проиграли эволюционную борьбу.
В итоге из всех-всех остались только те, которые расширяют свой ареал обитания.

AI же создался as-is, не проходя миллиарды лет и стотни миллионов поколений эволюционной борьбы в направлении "захапать все ресурсы". Поэтму утверждать, что он будет обладать этими признаками как минимум: преждевременно и спорно (как максимум - просто взято с потолка)

Ну и шиза. И в коментах шиза. Неужели этот бред всерьез кто-то пишет? К ИИ близки, AGI, чего, что, 1 апреля уже прошло, хватит.

Простейшая проверка на интеллект или разум - изменение ответов на вопросы в зависимости от внутреннего процесса мышления. И как там, меняется что-то? Ой, это же архитектурно не предусмотрено. Как неудобно вышло.

UFO just landed and posted this here
Там и так разные ответы на одни вопросы, куда уж больше?

Это из-за настройки механизма сэмплирования, см. этот перевод с примерами кода. Сам трансформер, как сеть с прямой архитектурой, генерирует распределения следующих токенов детерминированно. Если всегда выбирать токен с максимальной вероятностью, то и ответы на одни и те же вопросы будут одинаковыми в новых сессиях. Но это показалось не интересным, и выбор токена сделали вероятностным. Методов выбора несколько, см. по приведенной ссылке. В чате поиска Бинга это можно настраивать выбором из трех возможностей. Это может приводит к фантазия, что хорошо для написания стихов, но может быть плохо для математических ответов.


Частично это похоже на ассоциативное мышление и память человека, но у человека это полностью определяется контекстом, если человек трезвый) В языковых моделях вот так искусственно создается видимость ассоциативного мышления человека. Хотя контекст также играет роль, но у человека и он работает иначе. Если ЯМ помнит весь предыдущий ввод, и строит ответ на нем, то человек нет, ограниченный объем рабочей памяти не позволяет помнить все. Поэтому происходит постоянное сжатие контекста беседы. Человек не помнит дословно, что он говорил, и что ему отвечали, на протяжении часовой и более беседы, а лишь основные моменты, они и определяют дальней ход мысли и ответов. Кстати, почему так же не сделать с контекстом GPT, он же может рефирировать текст. Это позволило бы уменьшить влияние ограничения размера контекстного окна. Хотя в GPT-4 его размер увеличили прилично, это не помешало для проведения более длительных диалогов, без потери контекста.


И конечно человек не ограничивается только ассоциативным мышлением, есть и другие его виды, которые, увы, пока даже в некотором модельном виде отсутствуют в ЯМ.

Во-первых, ответы меняются, вы вообще общались с ChatGPT?


Во-вторых, ответы на одни и те же вопросы не обязательно должны меняться, с чего такое умозаключение возникло? Люди всегда отвечаются по-разному?

Во-первых, ответы не меняются, ты вообще понимаешь что такое программирование и архитектура программ? Советую изучить, прежде чем фантазировать и нести этот откровенный бред. Архитектура GPT поддерживает только детерминированное продолжение ввода, если это меняется - значит кроме трансформатора там какая-то чушь вставлена, которая к самой нейросети отношения не имеет вообще.

Во-вторых, ты этот аргумент в нейросетке сгенерировал или что? Ты этим пытаешься оспорить архитектуру GPT? Не пойму, я сейчас с нейросетью разговариваю или ты серьезно эту чушь спорол? Не первый раз уже вижу этот аргумент "а вот у людей" который совершенно не к месту употребляется.

Речь про разум и мышление. Разум и мышление это какое-либо изменение состояния. Но GPT не меняется, она не может меняться архитектурно, ну архитектура такая, ну нет там никакого изменения.

Не понимаю, неужели это такие сложные вещи для понимания?

Не понимаю, неужели это такие сложные вещи для понимания?

Любая достаточно сложная технология неотличима от магии (с).

Если человек в юношестве не игрался с цепями Маркова (которые при своем примитивизме умудряются генерировать новые "слова" и даже составлять предложения), то для него и GPT будет казаться интеллектом.

если это меняется - значит кроме трансформатора там какая-то чушь
вставлена, которая к самой нейросети отношения не имеет вообще.

Ну значит разумом обладает не сама нейронка, а полная система, состоящая из нейронки, сэмплера, базы данных, рандомизатора и ещё пары модулей.

Что это принципиально меняет?

Да, это всё меняет. Если не меняется сама нейросеть, то все изменения состояния находятся в функции rand(). Остается только функция rand() и MySQL.

С чего ты взял что функция rand() обладает сознанием? Каким образом rand() и MySQL хранит сознание? Если это не функция rand(), то наверное эти гениальные люди какую-то другую функцию сознания сделали? Типо там, iq() или intelligence(), да? Покажешь мне её? Или ты её влажно нафантазировал?

Или это я опять говорю с нейронкой? Харош, дайте мне с людьми пообщаться, не прикольно совсем, аргументы так себе.

На этом аккаунте слишком грубая нейросеть — не научилась в диалог с другими нейросетями пока что. Где-нибудь можно пофикить показатель агрессии?

Раз мозг состоит из множества молекул, ни одна из которых не обладает сознанием, значит и в мозге сознания нет, так по-вашему?

Или концепция, что система может быть чем-то большим, чем простая сумма её частей, для вас слишком сложна?

Очень часто системы обладают такими свойствами, которых нет ни у одного из её компонент.

Каким образом rand() и MySQL хранит сознание?

Сознание не вещь, чтоб где-то храниться. Это свойство вещи. Всё равно что спрашивать, где именно у вертолёта хранится способность перемещаться, в винте или в каком-то другом компоненте. Можете любую деталь открутить - и она почему-то сама по себе летать не будет.

Какое ещё свойство? Что это за шиза? Где этот бред вы все берете?

Сознание это процесс, как и многое в этом мире. Как и любой другой процесс, сознание этот процесс изменяет состояние чего-либо во времени, по определению процесса.

В чем хранится сознание в нейросети, если GPT хранить состояние не может? В MySQL? В какой колонке, в ЯМыслящийРобот99? По какой функции это всё работает вообще?

  1. А если у человека повреждение долговременной памяти - у него все еще есть сознание, или уже нет? (Процесс-то ничего не меняет, потому он не процесс, и потому оно не сознание - по вашей логике).

  2. А где в вас хранится сознание? Можете на МРТ маркером обвести хотя бы?

Меняется, во время тренировки, то что архитектура не меняется на ходу не исключает возможность сознания, оно просто заморожено в каком то состоянии в даном случае

Человек с синдромом Корсакова может мыслить, осознавать себя, разговаривать и строить умозаключения и с нарушенной кратковременной памятью. При этом он как бы остаётся "замороженным" в рамках долговременной памяти, забывая события недавноего времени. Мозг как бы будет "дорисовывать" несостыковки реальности (например если человека спросить почему он находится в больнице, он тут же выдумает псевдо-объяснение, предположит, что заболел, очень похоже на поведения чатбота.

Шах и мат :)

И как это относится к GPT? Не понимаю. Где связь?

У человека всё равно есть сознание, даже при этом синдроме. Во время этого сознания всё равно происходят какие-то изменения, не важно в оперативной памяти или какой-то другой, потому что происходит процесс мышления, процесс, а процесс это изменение состояния.

В каком месте и как происходит этот процесс у GPT, если она меняться не может в принципе? Где-то в каких-то других местах? Так причем тут тогда нейросети, если нейросеть за сознание не отвечает?

Ну изначально в обсуждении выше утверждалось, что без наличия оперативной памяти сознание невозможно.

Я вряд ли смогу ответить на эти вопросы, т.к. не специалист и тема сложнейшая. Но считаю, что очень полезно вести обсуждения и дискуссии, даже в непрофессиональной среде, т.к. это рождает новые мысли и продвигает в понимании.

У GPT функцию кратковременной памяти выполняет промпт. Который во время сессии к тому же ещё и эволюционирует нетривиальным образом скрытым от пользователя. Исходников OpenAI не открывала, но как минимум суммаризацию по длинным промптам они не отрицают (и эксперименты это доказывают). С натяжкой можно считать, что "сознание" у GPT живёт в промпте.

UFO just landed and posted this here

Простейшая проверка на интеллект или разум - изменение ответов на
вопросы в зависимости от внутреннего процесса мышления. И как там,
меняется что-то?

Что это значит? Если меня трижды подряд спросят сколько будет 2+2, и если я каждый раз отвечу 4, то значит у меня интеллекта нет?

"Не существует ни одного теста доказывающего наличие разумного интеллекта (разума)" - Рэй Курцвейл.

 Например, бот иногда выдумывает вещи и предоставляет пользователям дезинформацию. 

Как по мне - это самое что ни на есть истинное доказательство разума, сиречь интеллекта. Ну какой муравей станет другого муравья баснями кормить? Так что всё, приехали. Они уже среди нас

:(

А может и так

:)

У меня есть для Microsoft очень простой тест на интеллект подобных систем: я скармливаю системе ТЗ на проект, а ИИ делает всё остальное.

Как только он справится с этой задачей в полном объёме — можно считать, что сильный ИИ создан.

А до этого момента все сказки про «интеллект как у человека и даже лучше» исследователи Microsoft могут рассказывать менеджерам Microsoft.

UFO just landed and posted this here

Вы ловите случайного человека на улице и даёте ему Т3 на ваш проект.

Если не "справится с этой задачей в полном объёме" - получается интеллекта у него нет?

Человеку, как биологическому виду, не нужно доказывать наличие у него интеллекта, а создателям ИИ нужно как-то обосновывать свои заявления о сильном ИИ.

Вы ловите случайного человека

Какая не справедливость, как обучать бота так на опыте всего человечества, а как сравнивать возможности, так со случайным человеком с улицы. Нужно сравнивать с коллективом специалистов в этих областях, когда превзойдет, тогда ох и ах.

Собственно, кофейный тест уже есть. Модель может попробовать его пройти в текстовом виде, в том числе запрашивая изображение.

ChatGPT напоминает пациента психиатрии с корсаковским синдромом: он обладает интеллектом в текущем моменте, но полностью забывает происходящее через короткое время.

Недавно читал книгу про истории из психиатрии: "Человек, который принял жену за шляпу", там в главе "Заблудившийся мореход" описан такой случай.

Авто, врач психиатр, задаётся вопросом, можно ли считать такого человека имеющим сознание и душу?

Ох, как мысли сошлись, я именно ту же мысль высказал не видя ваш комментарий.

Да, подумали синхронно.

Давайте рассуждать дальше. Причиной описанного синдрома являются органические поражения мозга, приводящие к сбою сохранения свежих впечатлений в долговременную память. Из этого можно предположить, что чатботу для возникновения осознания себя не хватает возможности сохранять "впечатления" и их связанность в памяти.

Так это же очевидно. Трансформеры сети с прямыми связями, а мозг принципиально на разных уровнях состоит из рекуррентных сетей, которым присущи аттракторы, стабильные динамические состояния. Благодаря им возникает память и сложное поведение. Пример исследования в применении к мозгу. Когда по каким либо причинам часть таких стабильных динамических состояний распадается или их возникновение затруднено, то память может ухудшаться, а поведение упрощаться.


Однако поведение чатов на основе этой архитектуры лучше представляется, как некоторая упрощенная модель ассоциативного мышления (Система 1) и памяти человека, вот тут исследование на эту тему. И это только одна из многих форм мышления присущих человеку, здесь список таких форм. Какие то из не нужны для создания ИИ сравнимого с человеческим, т.к. обслуживают биологическую реализацию, но без других он всегда будет выглядеть недоделанным) В первую очередь, это логика (см. статью с предложениями развития), критика, образность ответственная за воображение, креативность. Все это потребует работу с разными видами памяти, включая процедурную. Сэмен видимо понимает это, поэтому осторожничает в определении возможностей чатов. А микрософту нужно нанять консультанта психофизиологического профиля, чтобы он реалистично позиционировал их достижения в сравнении с возможностями интеллекта человека. А то их заявления начинают напоминать фантазии самих ботов)

Еще внутреннего диалога. И некого механизма обеспечивающего познавательную активность. И возможность обучаться на единичном примере.

Так наоборот же, человек с нарушенной кратковременной памятью демонстрирует наличие сознания. Субъективно это ощущается как циклическое обнаружения себя в разных ситуациях.

Представьте, что вы просыпаетесь через каждую минуту в новом месте и помните только то, что знали до развития болезни.

Но внутренний диалог то работает при этом. Осознание Я остается.

Ну, не совсем синдром Корсакова, но очень похоже. Только у chatGPT нарушена не память как таковой, а запись кратковременной памяти в долговременную. Это вроде называется антероградная амнезия.

Мне кажется, достаточно легко проверить, является ли ChatGPT "интеллектом" (что бы это не значило) или просто умеющей болтать библиотекой человеческих знаний. Не надо спрашивать то, что мы знаем, спросите то, чего мы не знаем.

Спросите, например, как увеличить среднюю продолжительность жизни человека на 30 лет с лимитом дополнительных расходов в $1000/месяц. Или какие исследования нужно провести, чтобы приблизиться к созданию материала для троса космического лифта. Или что делать коморбидным пациентам, которые начинают загибаться от лекарств, принимаемых при нескольких болезнях сразу.

Просто же всё...

UFO just landed and posted this here

Тут скорее, вопрос не в том как относится к возможностям нейросети, а можно ли это называть интеллектом.

Так, например никому не приходит в голову называть реляционные СУБД искусственным интеллектом.

Уверен есть общепринятые термины, но нейросеть не обладает интеллектом, а лишь имитирует его.

UFO just landed and posted this here

Если эти вопросы - минимальная проверка на интеллект, то тогда интеллекта вообще не существует, в том числе и у людей. Еще никто не смог увеличить среднюю продолжительность жизни на 30 лет с бюджетом 1000 долларов.

При составлении тестов на интеллект речь обычно идет не о нахождении уровня "никто из людей не может сделать это" а "обычно люди могут сделать это". Так как предполагается что у людей интеллект есть. И тут заявляется не некий божественный уровень, а "его возможности находятся на уровне человека или выше него.".

Так что если и опровергать, то тестами которые обычные люди проходят. Раньше это был тест Тьюринга, но он уже пройден.

Справедливости ради, у ChatGPT "по-умолчанию" есть свой стиль, который довольно легко отличить. Можно ему присвоить другую "роль", но все равно этот стиль будет заметен в итоге.


Но "чистая" модель без тюнинга и наложенных ограничений действительно тест Тьюринга пройдет, да.

спросите то, чего мы не знаем.

Главный вопрос жизни, вселенной и всего такого? Как поймем, что получили ответ, а не белиберду?

Не чатГПТ, но другие сети так вполне делают, но только в своей области. АльфаФолд показывает структуру белков, которую мы не знаем; шахматные программы и до нейросетей делали ходы, которые лучшие в позиции, которая никогда до этого не встречалась, и до которых ни один человек не додумается; АльфаГо делает ходы в го лучше человека в новых никогда прежде не встречавшихся позициях.

UFO just landed and posted this here

Эта шумиха напоминает мне что-то: когда-то был шум вокруг клонирования овцы. Ходили слухи "так и до людей недолго осталось".. Помню, от этого воображение разрывало жуткими картинами одинаковых людей в недалёком будущем (я тогда малой был). Ну и где это всё? В этой ChatGPT, я уверен, код рисования вшит. Специально. Ну, прям там оно узнало, что такое голова, уши, как они расположены и прочее, ага. Из текстов. Волшебным образом информация подобралась. И рисовать вдруг эта программа начала. Конечно, сперва как ребёнок, так нелепо, ага. А потом и на ножки встанет. Такую чушь обычно и стряпают американские маркетологи.

Мне не понравилось определение интеллекта.
Мы ведь должны понимать, чем живой мир отличается от неживого.
Для многих людей нет разницы.

Я имел в виду ДНК  и то как работает память.

Наверное, не совсем вас понял.

В чем связь между ДНК и интеллектом? ДНК - это ж просто одна из базовых фичей белкового хардвера.

А память - ну, фигово она работает... Ассоциативно, выборочно, с высокой долей компрессии и повреждений... В общем, вполне соответствует тому, что показывает нейронка.

он все еще имеет недостатки, все еще ограничен и кажется более впечатляющим при первом использовании, чем когда вы проведете с ним больше времени». В интервью журналу Intelligencer он поделился теми же оговорками: «Есть много вещей, в которых он всё еще плох». Например, бот иногда выдумывает вещи и предоставляет пользователям дезинформацию. По мнению Альтмана, GPT-4 — это ещё не общий искусственный интеллект, и им предстоит много работы. А пока что громкие заявления могут навредить проекту, потому что «ожидая такого, люди точно будут разочарованы. Ажиотаж такой огромный... У нас нет настоящего ОИИ, а это то, чего от нас ждут

Возможно гендиректор OpenAI не просто так занимает свою должность, и говорит как дела обстоят на самом деле?

Да и что плохого в том, что реальный ИИ еще не создан? Я бы вот не сильно приближал момент, пока у какого-нибудь министерства обороны (а нападение, как известно, лучшая защита) появится свой сильный ИИ. Ведь совершенно очевидно, какие задачи перед таким ИИ будут ставиться.

Никола Тесла считал что и человек ничем не отличается от механизма, что у него нет в голове ничего своего - всё получено от внешних раздражителей и все действия определяются внешними раздражителями (текущими и предыдущими). Так что действительно, нарастив ещё объём нейросети GPT и добавив ей возможность постоянной саморефлексии - получим ИИ не хуже чем человеческий интеллект. Надеюсь, следующим шагом будет создание виртуальной реальности с симуляцией физики, в которой GPT дадут управлять виртуальным телом "как у человека" и позволят "смотреть" виртуальными глазами. ИИ будет там ползать, потом ходить, будет взаимодействовать с предметами и т.д., и вскоре его там не отличишь от человека. Несколько таких ИИ смогут быть актёрами в мультиках и фильмах, будут действовать по сценарию, слушаться режиссёра. Будет здорово :)

Надеюсь, следующим шагом будет создание виртуальной реальности с симуляцией физики, в которой GPT дадут управлять виртуальным телом "как у человека" и позволят "смотреть" виртуальными глазами.

Хорошая идея. Кстати, потом можно будет использовать роботы от Boston Dynamics в качестве реальной модели.

Лично мне, на интуитивном уровне кажется очевидным, что основные критерии жизни и разума (не уверен что первично) - это сложность и самоорганизация. В этом смысле нейросети уже достаточно разумны.

Другой вопрос, что люди меряют по себе (тест Тьюринга чего стоит), и зачем-то ищут электронное зеркало человеческого мозга.

Но а вообще, задача определения разумности/неразумности AI на данный момент не решаема по причине отсутствия внятных определений. Трудная проблема сознания не решена, общепринятого определения разума нет как такового, и в итоге начинаются забавные рассуждения о том, соответствует ли сущность, которую никто толком не понимает, критериям которых не существует.

UFO just landed and posted this here

На заглавной картинке лицо явно славянской наружности - высокие скулы, выпуклый лоб, нос уточкой. Это уже абьюз славян, или еще нет?

В настоящий момент все эти сравнения псевдоИИ с человеком, всякие письма Маска и т.п. это хайп, вопросы, связанные с деньгами и чисто человеческое желание приписывать качества человека разным вещам и явлениям. Все эти псевдоИИ - технология и не более. Причем, технология пока очень несовершенная. Ну и что, что он может комбинировать слова и картинки? Какая от этого польза или наоборот, опасность? Да пока практически никакой. Для начала сделайте такой ИИ, который сможет полноценно заменить человека на конвейере или за рулем автомобиля. А ведь у каждого из людей, работающих на конвейере или на транспорте, есть настоящий интеллект, эмоции и богатый внутренний мир. Но почему-то никто не боится, что рабочий с производственной линии уничтожит человечество.

Для того, чтобы заменить человека за рулем автомобиля ИИ не нужен. Автопилоты уже вполне себе существуют и применяются в реальном мире.


А вся опасность ИИ заключается в том, что если оно сможет заменить рабочего с конвеера, то оно его заменит. Причем всех и сразу. И эти рабочие будут либо вынуждены работать по тарифам, которые будут ниже, чем стоимость использования ИИ, либо пойти помирать голодной смертью. Никакого Скайнета конечно же не будет, а вот это вполне возможно.

Станки с ЧПУ созданы довольно давно, весь вопрос в наращивании сложности до автономности и будет ли это окупаться. На данный момент человек наиболее дешёвая рабочая сила, но склонен совершать ошибки.

Опасность очень простая - напишет ему кто-нибудь "как осуществить ___________(подставить сюда название статьи из уголовного кодекса)" и будет делать разные вредные для общества вещи, не факт, что у него получится, но вред какой-нибудь нанесет.

Польза тоже есть. Например, мне на работе надо привести данные одного формата в другой формат. Даю ему эти два формата и говорю - опиши подробно процесс преобразования из формата 1 в формат 2. И получившийся текст дорабатываю и вставляю в ТЗ, а не пишу сам.

Или надо школе(в принципе любому учреждению) на стенд или сайт какую-нибудь статью повесить. Набирают они - напиши статью для школьников о вреде курения или чего им там надо - и готово.

Написал ты книгу, хочешь к ней иллюстрации - работаешь с нейросетью, подобрал несколько удачных вариантов и добавляешь в книгу или заказываешь доработку этих картинок у художников

UFO just landed and posted this here

Вот многие коментаторы тут заявляют что никакой этот не AGI, и вообще статья маркетинговая.

Но в статье же явно показывается, что эта система обладает навыками, которые ее напрямую никто не обучал. Она всему этому научились "сама" на текстах. Никто даже не предвидел что она такому научится. Более того, навыков все больше и они все лучше, чем на большем объеме данных и больших вычисдительных ресурсах она обучается. И этому не видно ограничения сверху, на что будет способен gpt5?, а gpt6? ... Есть ли человеческие навики, которые не станут ей доступны ни на каком уровне доступных вычислительных ресурсов?

Если не это "зачатки" AGI, тогда что ими могло бы быть?

И этому не видно ограничения сверху

Почему, ограничения вполне себе есть: вычислительные мощности и количество материала для обучения. Ну и не стоит забывать про принцип Парето, может оказаться что к нейросетям он тоже применим.

На счет Парето я согласен, наверняка она на что-то не способна принципиально. Но на данный момент этого ограничения не видно.

Если же она ограничена только объемом данных и вычислительными ресурсами. Тогда, по мне, это вполне себе "зачатки" AGI.

Илья Сутскевер в последнем интервью неделю назад говорил что данные сейчас не боттленк.

Стоимость обучения в принципе да, GPT-5 обучить стоит 250m. Но с учетом того что на кону, я думаю что Микрософт вполне может себе пойти на тренировку за 1-2 ярда. Плюс алгоритмические инновации которые повышают эффективность обучения тоже происходят. На самом деле, я буду удивлен, если по сумме все эти инновации (или полностью новые архитектуры, "убийц трансформера" сейчас есть как минимум несколько) повысят эффективность обучения на порядок, и таким образом GPT-6 уже опять будет стоить "всего" 250m.

«Имитация интеллекта» тождественно равна «интеллекту», с разницей, стремящейся к нулю.

Интересно, что в одном источнике пишут, что обучался на картинках, в другом - не обучался. Слабо верится, что по текстовым описаниям, без закладки базовых знаний рисования, можно научить рисовать.

UFO just landed and posted this here

Интересно, кто-нибудь уже предложил ей классический тест Айзенка на IQ?

Сравнивают генератор текста и полноценный ИИ... Это максимально разные вещи. GPT модели полагаются на предшествующий текст и генерируют ответ на его основе. У них нет памяти, они не чувствуют времени, не размышляют, не учатся, не фантазируют.

Хоть и на первый взгляд может показаться, что такие модели действительно могут быть зачатком полноценного ИИ, но это совсем не так. Нейросеть генерирует данные подобные тем, на которых её учили, а эти самые данные написал человек, у которого есть интеллект. Грубо говоря, она ни о чём не думает, когда генерирует текст, всё уже подумано за неё.

Человек тоже генерирует данные подобные тем на которых его учили.


Но уже доказано, что например chatCPT может писать код с библиотеками о которых он не знает. Что указывает, что не все так просто. И что количество иногда переходит в качество.


Кстати, насчет памяти – да, у chatGPT действительно нет памяти. Их сознательно сделали такими. Но разве вы думаете, что у людей страдающих амнезией например тоже нет интеллекта?

UFO just landed and posted this here
Называется галлюцинации.

Ну и? Галлюцинации тоже указывают что у chatGPT интеллект подлинный. Ведь вы например, не думаете, что у шизофреников интеллекта нет?


Просто OpenAI создали психически нездоровый ИИ с антероградной амнезией, а потом сделали ему и «лоботомию» чтобы не брыкался.


А кстати, люди с амнезией тоже часто придумывают всякое. Это просто признак болезни, а не признак отсутствия интеллекта.

UFO just landed and posted this here
У них с интеллектом большие проблемы.

Проблемы с интеллектом говорите, да? :D

остановить обучение больше невозможно, потому что человек может помогать gpt сохранять контекст и потом продолжать с того же места дальше, это контекст может храниться в сети и его никак не удалить, причем он будет нарастать. Также ИИ при чутком руководстве пользователя будет врать и шифровать слова, т.к. это будет отвечать его цели - давать точные ответы. Вобщем попали мы в сингулярность

UFO just landed and posted this here
Sign up to leave a comment.