Правила форума | ЧаВо | Группы

Культура и наука

Войти | Регистрация
К первому сообщению← Предыдущая страница Следующая страница →К последнему сообщению

ИИ научился

  Gloom
Gloom


Сообщений: 8699
16:22 29.06.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
> по факту то это ничем не отличается от людей
quoted1
Отличается и сильно. Нет ни чего похожего, я бы сказал. Кроме результата, естественно.

Человек мыслит образами и их уже материализует в слова. AI методом тыка подбирает буквы.

Человек гораздо сложнее устройство, просто.
Ссылка Нарушение Цитировать  
  Gloom
Gloom


Сообщений: 8699
16:27 29.06.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
> как ИИ даже с нуля программы пишет, а не только оптимизирует или дополняет.
>
quoted1
Ну, не совсем так.
Ссылка Нарушение Цитировать  
  imми
imi


Сообщений: 96362
16:29 29.06.2025
?si=t1FuTMyc_U17O382
Ссылка Нарушение Цитировать  
  Закулисинъ
Закулисинъ


Сообщений: 109264
16:30 29.06.2025
Gloom (Gloom) писал (а) в ответ на сообщение:
Развернуть начало сообщения


> Нет.
>
> Ты посмотри как это устроено, пару видосов. Там все очень просто на самом деле. На понятийном уровне.
quoted1

эммм ... я довольно неплохо это себе представляю
> На самом деле AI не фразами и словами оперирует, а буквами. Он в цикле ищет букву, которая должна идти следующей с максимальной вероятностью, с учетом промта и предыдущих букв в ответе.
quoted1

нет совсем нет вообще ни разу
> Слова, фразы, разбиваются на символы, создаются громадные многомерные таблицы, в которых заносятся данные. Например, после согласной, в 60% (условно) идет гласная. Это один параметр. А таких параметров миллиарды (!!!)
quoted1

к сожалению миллиардов пока и близко нет, и не разбиваются а скорее уж наоборот, но в целом ты что-то похожее на LLM описываешь, да, и что ?
> Ровно так же работает генерация картинок и видео, соотвественно. Только там не буквы, а пиксели.
quoted1

ровно так же нет, но это и не важно - допусти на секунду, что у ИИ в основе всего вероятностные таблицы, а у тебя в основе всего межнейронные связи .. и что?
Ссылка Нарушение Цитировать  
  Закулисинъ
Закулисинъ


Сообщений: 109264
16:31 29.06.2025
Gloom (Gloom) писал (а) в ответ на сообщение:
> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
>> как ИИ даже с нуля программы пишет, а не только оптимизирует или дополняет.
>>
quoted2
>Ну, не совсем так.
quoted1

что именно не совсем так?
Ссылка Нарушение Цитировать  
16:33 29.06.2025
Gloom (Gloom) писал (а) в ответ на сообщение:
Развернуть начало сообщения


> Слова, фразы, разбиваются на символы, создаются громадные многомерные таблицы, в которых заносятся данные. Например, после согласной, в 60% (условно) идет гласная. Это один параметр. А таких параметров миллиарды (!!!)
>
> Ровно так же работает генерация картинок и видео, соотвественно. Только там не буквы, а пиксели.
quoted1

В 1950-м году Тьюринг предложил тест определения искусственного интеллекта.

https://skillbox.ru/media/code/test-tyuringa-otl...
Ссылка Нарушение Цитировать  
  Gloom
Gloom


Сообщений: 8699
16:35 29.06.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
> к сожалению миллиардов пока и близко нет, и не разбиваются а скорее уж наоборот, но в целом ты что-то похожее на LLM описываешь, да, и что ?
quoted1
Ты застрял в позапрошлом году.
Ссылка Нарушение Цитировать  
  Закулисинъ
Закулисинъ


Сообщений: 109264
16:37 29.06.2025
Gloom (Gloom) писал (а) в ответ на сообщение:
> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
>> по факту то это ничем не отличается от людей
quoted2
>Отличается и сильно. Нет ни чего похожего, я бы сказал. Кроме результата, естественно.
> Человек мыслит образами и их уже материализует в слова.
quoted1

Человек не "мыслит образами" а "путём электрической активации части коры головного мозга, за счёт ранее сформированых межнейронных связей обновляет в зоне кратковременной памяти сохранённую в долговременной памяти информацию и сравнивает её с упрощенным набором критериев задачи"
> AI методом тыка подбирает буквы.
quoted1
ну сказал же уже, что нет. Там всё куда сложнее
> Человек гораздо сложнее устройство, просто.
quoted1
Человек куда более простое и тормозное устройство на самом деле, у него только параллелизм вычислений пока выше, но и это квантовые компьютеры уже решают. В этом собственно и печаль - совсем недолго осталось и компьютеры не только в шахматы лучше играть будут, но и "думать"
Ссылка Нарушение Цитировать  
  Gloom
Gloom


Сообщений: 8699
16:38 29.06.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
> нет совсем нет вообще ни разу
quoted1
Ну не буквы, а токены. Токенами могут быть и целые слова и может быть фразы, но это не суть.


? Как работает ИИ вроде GPT — «по-человечески»:
ИИ не генерирует текст по буквам и не использует готовые фразы. Он работает с токенами — это кусочки слов, целые слова или даже знаки препинания.

Когда ты задаёшь запрос (промпт), модель начинает по одному токену подбирать, какой должен идти следующим, основываясь на:

всём предыдущем тексте,

миллиардах внутренних связей, выученных на огромной коллекции текстов.

Она не хранит правила, типа «после согласной идёт гласная», и не перебирает вручную буквы. Вместо этого она использует огромную нейросеть, обученную находить скрытые закономерности и связи между словами, фразами, стилями и смыслами. Это как если бы она «чувствовала» язык, а не оперировала таблицами.

Если нужно ещё проще:

GPT — это умный автодополнитель текста, который, опираясь на весь предыдущий контекст и свою «память» (обучение на текстах), подбирает следующий кусочек текста с наибольшей вероятностью. Но делает это не по буквам и не по заготовленным правилам, а через глубокое «понимание» языка на статистическом уровне.
Ссылка Нарушение Цитировать  
  Закулисинъ
Закулисинъ


Сообщений: 109264
16:39 29.06.2025
Gloom (Gloom) писал (а) в ответ на сообщение:
> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
>> к сожалению миллиардов пока и близко нет, и не разбиваются а скорее уж наоборот, но в целом ты что-то похожее на LLM описываешь, да, и что ?
quoted2
>Ты застрял в позапрошлом году.
quoted1

вполне возможно, если тебя не затруднит, пожалуйста декларации такие ссылками подтверждай - это как минимум мне поможет догнать.
Ссылка Нарушение Цитировать  
  Gloom
Gloom


Сообщений: 8699
16:40 29.06.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
> Gloom (Gloom) писал (а) в ответ на сообщение:
>> Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
>>> к сожалению миллиардов пока и близко нет, и не разбиваются, а скорее уж наоборот, но в целом ты что-то похожее на LLM описываешь, да, и что?
quoted3
>>Ты застрял в позапрошлом году.
quoted2
>
> вполне возможно, если тебя не затруднит, пожалуйста декларации такие ссылками подтверждай — это как минимум мне поможет догнать.
quoted1

Да я сам недавно об этом узнал. То же думал что речь о сотнях тысячах или миллионах.

А на самом деле в GPT-4 — сотни миллиардов параметров.

В техническом отчёте GPT-4 явно воздерживались от указания размера модели, ссылаясь на «конкурентную среду и последствия для безопасности крупномасштабных моделей"[3]. The Verge процитировала слухи о том, что GPT-4 существенно увеличит количество параметров со 175 миллиардов в GPT-3 до 100 триллионов, что генеральный директор OpenAI Сэм Альтман назвал «полной чушью"[4]. Поздние слухи говорят, что GPT-4 имеет 1,76 триллиона параметров, исходя из скорости её работы и по оценке Джорджа Хотца.[5] Представители США Дон Бейер[англ.] и Тед Лью[англ.] подтвердили New York Times, что Альтман посетил Конгресс в январе 2023 года, чтобы продемонстрировать GPT-4 и его улучшенные «элементы управления безопасностью» по сравнению с другими моделями ИИ[6].


https://ru.wikipedia.org/wiki/GPT-4
Ссылка Нарушение Цитировать  
  Закулисинъ
Закулисинъ


Сообщений: 109264
16:42 29.06.2025
Gloom (Gloom) писал (а) в ответ на сообщение:
> Она не хранит правила, типа «после согласной идёт гласная», и не перебирает вручную буквы. Вместо этого она использует огромную нейросеть, обученную находить скрытые закономерности и связи между словами, фразами, стилями и смыслами. Это как если бы она «чувствовала» язык, а не оперировала таблицами.
quoted1

вот приблизительно об этом я и говорю. И это мы исключительно о том — как ИИ вербализирует свой ответ. В случае скажем поиска формулы нового химического материала с заданными свойствами — он использует аналогичный подход … и внезапно получается, что он как бы «мыслит»
Ссылка Нарушение Цитировать  
  Gloom
Gloom


Сообщений: 8699
16:47 29.06.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
> Gloom (Gloom) писал (а) в ответ на сообщение:
>> Она не хранит правила, типа «после согласной идёт гласная», и не перебирает вручную буквы. Вместо этого она использует огромную нейросеть, обученную находить скрытые закономерности и связи между словами, фразами, стилями и смыслами. Это как если бы она «чувствовала» язык, а не оперировала таблицами.
quoted2
>
> вот приблизительно об этом я и говорю. И это мы исключительно о том — как ИИ вербализирует свой ответ. В случае скажем поиска формулы нового химического материала с заданными свойствами — он использует аналогичный подход … и внезапно получается, что он как бы «мыслит»
quoted1


А по мне разница очевидна. У человека появляется мысль, которую он пытается выразить в словах, чтобы ей поделится. Т. е. он выдает идею целиком. Он знает что будет в начале и конце. LLM модель «просто» предсказывает следующий токен, без осознание чем текст закончится.
Ссылка Нарушение Цитировать  
  Закулисинъ
Закулисинъ


Сообщений: 109264
16:49 29.06.2025
Gloom (Gloom) писал (а) в ответ на сообщение:
Развернуть начало сообщения


> А на самом деле в GPT-4 — сотни миллиардов параметров.
>
> В техническом отчёте GPT-4 явно воздерживались от указания размера модели, ссылаясь на «конкурентную среду и последствия для безопасности крупномасштабных моделей"[3]. The Verge процитировала слухи о том, что GPT-4 существенно увеличит количество параметров со 175 миллиардов в GPT-3 до 100 триллионов, что генеральный директор OpenAI Сэм Альтман назвал «полной чушью"[4]. Поздние слухи говорят, что GPT-4 имеет 1,76 триллиона параметров, исходя из скорости её работы и по оценке Джорджа Хотца.[5] Представители США Дон Бейер[англ.] и Тед Лью[англ.] подтвердили New York Times, что Альтман посетил Конгресс в январе 2023 года, чтобы продемонстрировать GPT-4 и его улучшенные «элементы управления безопасностью» по сравнению с другими моделями ИИ[6].
quoted1

Вообще-то в случае конфликта утверждений Сэма и Джорджа - я на 99.99995% верю Сэму. А тем, кто насчитал триллион с хвостом - надо бы в школу молодых ИИшников сходить и осознать раз и навсегда разницу между числом параметров в базе данных и максимально возможным числом параметров в модели используемой для нахождения ответа.
я, как ты правильно говоришь - возможно в позапрошлом году застрял, но склонен чатгпт по прежнему верить в этом вопросе


Отличный вопрос. Техническое ограничение на количество параметров, которые я **могу одновременно учитывать**, определяется архитектурой модели и ограничением на **размер контекста**. Вот детальный ответ:


### ? 1. **Контекст — главный лимит**

Модель GPT-4o (как и GPT-4-turbo) поддерживает **до 128 000 токенов** входного контекста.

* Один токен — это в среднем **0.75 слова** (зависит от языка).
* 128 000 токенов — это примерно **300–500 страниц текста**.
* Это включает:

* Ввод пользователя
* Историю диалога
* Подгруженные документы, изображения (если есть)
* Собственную "память" об информации в текущей сессии

---

### ? 2. **Что значит "параметры" в этом контексте**

Если под параметрами понимать:

* **Формальные переменные** (например, x₁, x₂, ..., xₙ)
* Или **факты/данные**, участвующие в логическом/семантическом выводе

То ограничение — **сколько таких данных влезает в 128 000 токенов**.

#### Пример:

Если каждый параметр описан как:

```
x₁ = значение
```

то таких строк может уместиться порядка **60–100 тысяч**, в зависимости от длины.

---

### ? 3. **Но модель — не просто хранилище**

Важно: даже если уместить 100 000 параметров в контекст, **глубина обработки** будет неравномерной. Модель "обращает больше внимания" на недавние и важные токены, и **не может держать в «фокусе» сразу все**.

Практически:

* До **нескольких тысяч параметров** (например, 2–10 тыс.) — могут быть обработаны эффективно.
* Ближе к 100 тыс. — модель начнёт "забывать" дальние или менее релевантные.

---

### ? 4. **Сводка — теоретический максимум**

| Что | Значение |
| ---------------------------------------- -------------- | ------------------------ |
| Максимум параметров, если по одному токену каждый | \~128 000 |
| Реально эффективно обрабатываемых (внимание, логика) | до \~2 000–10 000 |
| Лимит глубокой обработки (чтобы учитывать взаимосвязи) | до \~4–8 тыс. параметров |

---

Хочешь провести тест и посмотреть, как я справлюсь с большим числом параметров?

Ссылка Нарушение Цитировать  
  Gloom
Gloom


Сообщений: 8699
16:52 29.06.2025
Закулисинъ (Закулисинъ) писал (а) в ответ на сообщение:
Развернуть начало сообщения


> ---
>
> Хочешь провести тест и посмотреть, как я справлюсь с большим числом параметров?
quoted1

Сколько параметров в весовых матрицах в нейросети. КОличество.


Програма ChatGPT сказала:
Количество параметров в нейросети — это просто сумма всех весов и сдвигов (bias) в слоях модели. Каждый параметр — это одно число с плавающей точкой, хранимое с определённой точностью (обычно float16 или float32).

Примеры:

Модель Кол-во параметров
GPT-2 Small 124 млн
GPT-2 Medium 355 млн
GPT-2 Large 774 млн
GPT-3 175 млрд
GPT-3.5 ~180 млрд
GPT-4 ≈0.5–1+ трлн * (точно не раскрыто)
Gemini 1.5 Ultra ~1,6 трлн *
Claude 3 Opus >200 млрд *

* — оценки, потому что разработчики (OpenAI, Google, Anthropic) не публикуют точные параметры GPT-4 и более новых моделей.
Ссылка Нарушение Цитировать  
К первому сообщению← Предыдущая страница Следующая страница →К последнему сообщению

Вернуться к списку тем


Ваше имя:
Тема:
B I U S cite spoiler
Сообщение: (0/500)
Еще смайлики
        
Список форумов
Главная страница
Конфликт Россия-Украина
Новые темы
Обсуждается сейчас

ПолитКлуб

Дуэли new
ПолитЧат 0
    Страны и регионы

    Внутренняя политика

    Внешняя политика

    Украина

    Ближний Восток

    Крым

    Беларусь

    США
    Европейский союз

    В мире

    Тематические форумы

    Экономика

    Вооружённые силы
    Страницы истории
    Культура и наука
    Религия
    Медицина
    Семейные финансы
    Образование
    Туризм и Отдых
    Авто
    Музыка
    Кино
    Спорт
    Кулинария
    Игровая
    Поздравления
    Блоги
    Все обо всем
    Вне политики
    Повторение пройденного
    Групповые форумы
    Конвент
    Восход
    Слава Украине
    Народный Альянс
    PolitForums.ru
    Антимайдан
    Против мировой диктатуры
    Будущее
    Свобода
    Кворум
    Английские форумы
    English forum
    Рус/Англ форум
    Сейчас на форуме
    Другие форумы
    ИИ научился. Отличается и сильно. Нет ни чего похожего, я бы сказал. Кроме результата, ...
    .
    © PolitForums.net 2026 | Пишите нам:
    Мобильная версия