t.me/antonvolkov/202

Preview meta tags from the t.me website.

Linked Hostnames

1
  • 3 links to
    t.me

Thumbnail

Search Engine Appearance

Google

https://t.me/antonvolkov/202

Точка сборки

Моя первая реакция после использования DeepSeek — ну всё, вот мы и получили production-ready нейронку, которая зайдёт массовому пользователю, что называется, без вазелина. Если предыдущие нейронки больше напоминали неподготовленного к экзамену студента, пытающегося нарассуждать хотя бы на троечку, то теперь это прямо отличница, идущая на красный диплом: ответы чёткие, структурированные, без лишней воды, всё по учебнику. На всякий случай ещё раз проговорю для тех, кто далёк от темы. DeepSeek и другие LLM не являются интеллектом и не умеют думать. Они умны настолько же, насколько умён Консультант+. При всём сходстве с рассуждениями человека — это микс рассуждений живых авторов, чьи материалы стали обучающей выборкой для нейросети. Большие языковые модели не способны рассуждать самостоятельно — "рассуждения" быстро заканчиваются там, где заканчиваются материалы обучения. В этом легко убедиться: DeepSeek обучали в районе лета 2024, поэтому ответ на вопрос о событии, случившемся с этого момента (например, о возможности…



Bing

Точка сборки

https://t.me/antonvolkov/202

Моя первая реакция после использования DeepSeek — ну всё, вот мы и получили production-ready нейронку, которая зайдёт массовому пользователю, что называется, без вазелина. Если предыдущие нейронки больше напоминали неподготовленного к экзамену студента, пытающегося нарассуждать хотя бы на троечку, то теперь это прямо отличница, идущая на красный диплом: ответы чёткие, структурированные, без лишней воды, всё по учебнику. На всякий случай ещё раз проговорю для тех, кто далёк от темы. DeepSeek и другие LLM не являются интеллектом и не умеют думать. Они умны настолько же, насколько умён Консультант+. При всём сходстве с рассуждениями человека — это микс рассуждений живых авторов, чьи материалы стали обучающей выборкой для нейросети. Большие языковые модели не способны рассуждать самостоятельно — "рассуждения" быстро заканчиваются там, где заканчиваются материалы обучения. В этом легко убедиться: DeepSeek обучали в районе лета 2024, поэтому ответ на вопрос о событии, случившемся с этого момента (например, о возможности…



DuckDuckGo

https://t.me/antonvolkov/202

Точка сборки

Моя первая реакция после использования DeepSeek — ну всё, вот мы и получили production-ready нейронку, которая зайдёт массовому пользователю, что называется, без вазелина. Если предыдущие нейронки больше напоминали неподготовленного к экзамену студента, пытающегося нарассуждать хотя бы на троечку, то теперь это прямо отличница, идущая на красный диплом: ответы чёткие, структурированные, без лишней воды, всё по учебнику. На всякий случай ещё раз проговорю для тех, кто далёк от темы. DeepSeek и другие LLM не являются интеллектом и не умеют думать. Они умны настолько же, насколько умён Консультант+. При всём сходстве с рассуждениями человека — это микс рассуждений живых авторов, чьи материалы стали обучающей выборкой для нейросети. Большие языковые модели не способны рассуждать самостоятельно — "рассуждения" быстро заканчиваются там, где заканчиваются материалы обучения. В этом легко убедиться: DeepSeek обучали в районе лета 2024, поэтому ответ на вопрос о событии, случившемся с этого момента (например, о возможности…

  • General Meta Tags

    13
    • title
      Telegram: View @antonvolkov
    • charset
      utf-8
    • viewport
      width=device-width, initial-scale=1.0
    • twitter:title
      Точка сборки
    • twitter:image
      https://cdn4.telesco.pe/file/QxdxovmnS1f5Kw7oQDwEB5aSjIey8QwwHDm6i08cHTomVIe65lq8_4bODGqweRFSOBmKgDoUWTUXZUZdlxaYrhA2xnPvQgH90tHEvt_KGj2LTWNaDT-2mpbQiOpkEMRM2pLT6BrhhIOcrhZKOQMEZv0CvDVbW078RVsyp-epUtOTC0ZaRKUF86j809xNGt1yNKH2fAFQjN88yfrrDKEW3uQQKwuZ40ZMmOQ9VVHnFSWUYn724-2S8_r9s3Zw-T6GZjSguszxt1xpiRWHBb8rKv8zSzFEcg_DeEm1nLFMev88mUUsaH54FMjXkdttwhwcq5PDh3QhIqJItKXtyARI8Q.jpg
  • Open Graph Meta Tags

    4
    • og:title
      Точка сборки
    • og:image
      https://cdn4.telesco.pe/file/QxdxovmnS1f5Kw7oQDwEB5aSjIey8QwwHDm6i08cHTomVIe65lq8_4bODGqweRFSOBmKgDoUWTUXZUZdlxaYrhA2xnPvQgH90tHEvt_KGj2LTWNaDT-2mpbQiOpkEMRM2pLT6BrhhIOcrhZKOQMEZv0CvDVbW078RVsyp-epUtOTC0ZaRKUF86j809xNGt1yNKH2fAFQjN88yfrrDKEW3uQQKwuZ40ZMmOQ9VVHnFSWUYn724-2S8_r9s3Zw-T6GZjSguszxt1xpiRWHBb8rKv8zSzFEcg_DeEm1nLFMev88mUUsaH54FMjXkdttwhwcq5PDh3QhIqJItKXtyARI8Q.jpg
    • og:site_name
      Telegram
    • og:description
      Моя первая реакция после использования DeepSeek — ну всё, вот мы и получили production-ready нейронку, которая зайдёт массовому пользователю, что называется, без вазелина. Если предыдущие нейронки больше напоминали неподготовленного к экзамену студента, пытающегося нарассуждать хотя бы на троечку, то теперь это прямо отличница, идущая на красный диплом: ответы чёткие, структурированные, без лишней воды, всё по учебнику. На всякий случай ещё раз проговорю для тех, кто далёк от темы. DeepSeek и другие LLM не являются интеллектом и не умеют думать. Они умны настолько же, насколько умён Консультант+. При всём сходстве с рассуждениями человека — это микс рассуждений живых авторов, чьи материалы стали обучающей выборкой для нейросети. Большие языковые модели не способны рассуждать самостоятельно — "рассуждения" быстро заканчиваются там, где заканчиваются материалы обучения. В этом легко убедиться: DeepSeek обучали в районе лета 2024, поэтому ответ на вопрос о событии, случившемся с этого момента (например, о возможности…
  • Twitter Meta Tags

    12
    • twitter:card
      summary
    • twitter:site
      @Telegram
    • twitter:description
      Моя первая реакция после использования DeepSeek — ну всё, вот мы и получили production-ready нейронку, которая зайдёт массовому пользователю, что называется, без вазелина. Если предыдущие нейронки больше напоминали неподготовленного к экзамену студента, пытающегося нарассуждать хотя бы на троечку, то теперь это прямо отличница, идущая на красный диплом: ответы чёткие, структурированные, без лишней воды, всё по учебнику. На всякий случай ещё раз проговорю для тех, кто далёк от темы. DeepSeek и другие LLM не являются интеллектом и не умеют думать. Они умны настолько же, насколько умён Консультант+. При всём сходстве с рассуждениями человека — это микс рассуждений живых авторов, чьи материалы стали обучающей выборкой для нейросети. Большие языковые модели не способны рассуждать самостоятельно — "рассуждения" быстро заканчиваются там, где заканчиваются материалы обучения. В этом легко убедиться: DeepSeek обучали в районе лета 2024, поэтому ответ на вопрос о событии, случившемся с этого момента (например, о возможности…
    • twitter:app:name:iphone
      Telegram Messenger
    • twitter:app:id:iphone
      686449807
  • Link Tags

    8
    • alternate icon
      //telegram.org/img/favicon.ico
    • apple-touch-icon
      //telegram.org/img/apple-touch-icon.png
    • icon
      //telegram.org/img/website_icon.svg?4
    • icon
      //telegram.org/img/favicon-32x32.png
    • icon
      //telegram.org/img/favicon-16x16.png

Links

3