> > ИИ сам пробовать будет все таблетки, или всё-таки на мышках испытают?
как и со всеми остальными - отправляют на Клинические испытания - я ж только те, что ещё не отсеялись упомянул .. так-то многие лекарства проваливают испытания по тем или иным причинам - кто бы их ни создавал.
И что ты теперь скажешь? точно никому не нужен "чатгпт" ?
16:30 02.07.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на :
> И что ты теперь скажешь? точно никому не нужен "чатгпт" ? >
Мне точно GPT не нужен. Зачем? Ведь есть ты. Живой, эмоциональный.
>> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
>>> Gloom (Gloom) писал (а) в ответ на сообщение: >>>> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
>
>>>>> я ж тебе показал ответ самого ИИ, что он сначала своим способом решает задачу, а уже потом подбирает слова для объяснения решения человеку, её задавшему.
>>> совершенно правильный — он тебе не нравится, но зачем же его обвинять? .
>> >> >> Не, просто ответ неверный. LLM совершенно не так генерирует текст.
> > 1) я в упор не вижу разницы между двумя объяснениями о текстовой части > 2) какое отношение генерация текста имеет к решению задачи
>>> Любая программа — даже совершенно простенькая — если написана по правилам программирования — именно так, как он объяснил, и делает — и он даже объяснил почему
>> >> Нет.
> > Что "нет" ? Да.
>> Иначе тебе придется признать разум у дверного звонка.
>Зачем и почему ?
>> Ведь он знает когда надо звонить и как это делать, верно?
>во первых - это не критерий разумности, во вторых степень интеллекта звонка зависит от того - что ты вкладываешь в понятия "знает" , "звонить" и "как". Звонок, заметивший подходящего к двери человека, и играющий свежесочинённую им мелодию, степень тревожности которой зависит от того распознал он человека или нет и от времени суток - несомненно несколько интеллектуальнее кнопки-переключателя вкл-выкл.
Вот этого в алгоритмах LLM нет.
* не запутаться в рассуждениях, * не вести в тупик, * и объяснять понятно и логично, зная к чему надо привести.
Можно ли сказать, что во время генерации ответа GPT думает о том, чтобы
* не запутаться в рассуждениях, * не вести в тупик, * и объяснять понятно и логично, зная к чему надо привести.
Програма ChatGPT сказала: Короткий ответ: нет, GPT не думает об этом в человеческом смысле — но он часто ведёт себя так, будто думает об этом, потому что обучен на текстах, где такие цели реализованы.
? Разберём по пунктам: ✅ 1. Не запутаться в рассуждениях GPT не «следит» за собой, у него нет внутреннего контроля над логикой.
Но он на основе контекста и вероятностей пытается продолжить мысли так, чтобы они «звучали логично».
Если в обучении были последовательные логические объяснения — он воспроизводит паттерн.
Но это не гарантировано: модель может сбиться, противоречить себе, «запутаться».
⟶ Не думает об этом явно, но поведение может имитировать «ясное мышление».
✅ 2. Не вести в тупик У GPT нет цели или воли: он не знает, куда «надо прийти».
Он не планирует ответ заранее.
Но если ты начинаешь вопрос как рассуждение — модель будет продолжать в духе «объяснительной» логики, потому что это типичная структура из обучающих данных.
⟶ Он не «избегает тупиков», но продолжает шаблон, где тупики — редкость.
✅ 3. Объяснять понятно и логично, зная к чему надо привести GPT не знает цели ответа (например, «я должен объяснить X»).
Но он может угадывать, какой вывод ожидается, если структура вопроса знакома.
Он учится из миллиардов примеров «как люди объясняют Y», и на этой основе имитирует объяснение.
Иногда это выглядит как чёткое, логичное разъяснение с осмысленным финалом — но это статистическая имитация, а не планирование.
17:27 02.07.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на :
> Звонок, заметивший подходящего к двери человека, и играющий свежесочинённую им мелодию, степень тревожности которой зависит от того распознал он человека или нет и от времени суток — несомненно несколько интеллектуальнее кнопки-переключателя вкл-выкл.
Мы говорим не про интеллект (способность решать задачи), а про разум (способность осознавать, мыслить, понимать).
Т. е. если к звонку добавить еще пару датчиков и выбор мелодий, то он станет разумным, верно?
17:34 02.07.2025
Gloom (Gloom) писал (а) в ответ на :
> > Т. е. если к звонку добавить еще пару датчиков и выбор мелодий, то он станет разумным, верно? >
Механистически не создать разумный компьютер. Разум бывает только у живых существ.
17:48 02.07.2025
17:54 02.07.2025
Andrey72 (Andrey72) писал (а) в ответ на :
> Механистически не создать разумный компьютер. > Разум бывает только у живых существ.
А чем живое существо отличается от не живого? Что такое надо реализовать в механизме, какие технологии использовать, чтобы ты сказал - это живой организм?
18:01 02.07.2025
Gloom (Gloom) писал (а) в ответ на :
> А чем живое существо отличается от не живого? Что такое надо реализовать в механизме, какие технологии использовать, чтобы ты сказал - это живой организм? >
Много чем. Мотивацией, пониманием собственного я, пониманием пространства и времени, пониманием конечности жизни. Компьютеру невозможно дать то, чего у него не может быть в принципе.
18:07 02.07.2025
Andrey72 (Andrey72) писал (а) в ответ на :
> Много чем.
Ну, т. е., ты, все-таки допускаешь, через какое то конечное количество усовершенствований, механизм может считаться живим организмом?
Andrey72 (Andrey72) писал (а) в ответ на :
> Мотивацией, пониманием собственного я, пониманием пространства и времени, пониманием конечности жизни.
Я не про разум спрашивал, а про жизнь. Много живых организмов не разумны.
18:14 02.07.2025
Gloom (Gloom) писал (а) в ответ на :
> Ну, т. е., ты, все-таки допускаешь, через какое то конечное количество усовершенствований, механизм может считаться живим организмом?
Да ты лично можешь считать живым и разумным даже унитаз. Но у остальных людей будут свои мнения.
18:28 02.07.2025
Andrey72 (Andrey72) писал (а) в ответ на :
> Но у остальных людей будут свои мнения.
Так и про людей в том же духе думали. Полигенизм, евгенизм… Вот просто решили что часть людей, недостаточно разумные, чтоб людьми считаться. И не люди вовсе, а вещи.
Но жалко что ты сдался. Могли бы сформулировать чем живой организм от неживого отличается. А там и до разумности не далеко.
18:44 02.07.2025
Gloom (Gloom) писал (а) в ответ на :
> Но жалко что ты сдался. Могли бы сформулировать чем живой организм от неживого отличается. А там и до разумности не далеко. >
РНК-ДНК
18:59 02.07.2025
Andrey72 (Andrey72) писал (а) в ответ на :
> РНК-ДНК
РНК-ДНК — это биохимия земной жизни. Теоретически, это необязательный механизм.
Eсть искусственный аналог
XNAs — это ксенонуклеиновые кислоты (от англ. Xeno Nucleic Acids), искусственно созданные молекулы, которые не встречаются в природе, но могут выполнять те же функции, что и ДНК или РНК: хранить информацию, копироваться и даже эволюционировать.
Но так ли уж РНК-ДНК важно?
Формулировка: «живой организм» (в биологическом смысле) Живой организм — это автономная, ограниченная система, способная к: Обмену веществ (метаболизму), Саморепликации (воспроизводству себя), Ответу на внешние раздражители (реактивности), Эволюции через наследуемые изменения, Гомеостазу — поддержанию внутренней стабильности, Росту и развитию (в большинстве случаев).
Ты вообще, фантастикой интересуешься?
Очень много пишут о технологиях, когда разум копируют в супермощные компьютера и он там продолжает себя осознавать. Без РНК-ДНК, без жизни. В таком контексте разум остается быть разумом? Или нет?
Рекомендую, к слову
Нил Стивенсон — Падение, или Додж в Аду. Книга первая
Книга классная. Я аудио слушал. Она и написано добротно и экономический вопрос подымает.
>>> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение: >>>> Gloom (Gloom) писал (а) в ответ на сообщение: >>>>> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
>>
>>>>>> я ж тебе показал ответ самого ИИ, что он сначала своим способом решает задачу, а уже потом подбирает слова для объяснения решения человеку, её задавшему.
>>>>> Это не правильный ответ. >>>>
>> >>
>>>> совершенно правильный — он тебе не нравится, но зачем же его обвинять? .
>>> Не, просто ответ неверный. LLM совершенно не так генерирует текст.
>> >> 1) я в упор не вижу разницы между двумя объяснениями о текстовой части >> 2) какое отношение генерация текста имеет к решению задачи
>>>> Любая программа — даже совершенно простенькая — если написана по правилам программирования — именно так, как он объяснил, и делает — и он даже объяснил почему
> >
>>>
>>> Нет.
>> >> Что "нет" ? Да.
>>> Иначе тебе придется признать разум у дверного звонка.
>>Зачем и почему ?
>>> Ведь он знает когда надо звонить и как это делать, верно?
>>во первых - это не критерий разумности, во вторых степень интеллекта звонка зависит от того - что ты вкладываешь в понятия "знает" , "звонить" и "как". Звонок, заметивший подходящего к двери человека, и играющий свежесочинённую им мелодию, степень тревожности которой зависит от того распознал он человека или нет и от времени суток - несомненно несколько интеллектуальнее кнопки-переключателя вкл-выкл.
> > Вот этого в алгоритмах LLM нет. > > > * не запутаться в рассуждениях, > * не вести в тупик, > * и объяснять понятно и логично, зная к чему надо привести. > > > Можно ли сказать, что во время генерации ответа GPT думает о том, чтобы > > * не запутаться в рассуждениях, > * не вести в тупик, > * и объяснять понятно и логично, зная к чему надо привести. > > > Програма ChatGPT сказала: > Короткий ответ: нет, GPT не думает об этом в человеческом смысле — > но он часто ведёт себя так, будто думает об этом, потому что обучен на текстах, где такие цели реализованы. > > ? Разберём по пунктам: > ✅ 1. Не запутаться в рассуждениях > GPT не «следит» за собой, у него нет внутреннего контроля над логикой. > > Но он на основе контекста и вероятностей пытается продолжить мысли так, чтобы они «звучали логично». > > Если в обучении были последовательные логические объяснения — он воспроизводит паттерн. > > Но это не гарантировано: модель может сбиться, противоречить себе, «запутаться». > > ⟶ Не думает об этом явно, но поведение может имитировать «ясное мышление». > > ✅ 2. Не вести в тупик > У GPT нет цели или воли: он не знает, куда «надо прийти». > > Он не планирует ответ заранее. > > Но если ты начинаешь вопрос как рассуждение — модель будет продолжать в духе «объяснительной» логики, потому что это типичная структура из обучающих данных. > > ⟶ Он не «избегает тупиков», но продолжает шаблон, где тупики — редкость. > > ✅ 3. Объяснять понятно и логично, зная к чему надо привести > GPT не знает цели ответа (например, «я должен объяснить X»). > > Но он может угадывать, какой вывод ожидается, если структура вопроса знакома. >
> Он учится из миллиардов примеров «как люди объясняют Y», и на этой основе имитирует объяснение. > > Иногда это выглядит как чёткое, логичное разъяснение с осмысленным финалом — но это статистическая имитация, а не планирование.
анекдот знаешь в чём ? Ты сделал неверный вывод. ИИ объяснил почему сначала решает задачу, а потом её объясняет. А ты с чего-то взял, что раз он так сказал, то у него есть инструменты контроля ... а это ни из чего не следует.