Silicon Brain | جامعه هوش مصنوعی


Channel's geo and language: not specified, not specified
Category: not specified


مغز سیلیکونی|جامعه هوش مصنوعی و یادگیری ماشین
گروه بحث و تبادل نظر:
https://t.me/joinchat/h-7FVyI5_uhlNDBk
مطالب و بحث های بیشتر در اینستاگرام:
https://www.instagram.com/silicon_brain/
ارتباط با ادمین:
@silicon_brain_admin

Related channels  |  Similar channels

Channel's geo and language
not specified, not specified
Category
not specified
Statistics
Posts filter


تو این پست اینستاگرام، در مورد ارتباط #LLM و #AGI و جایگاه و آینده هر کدوم توضیح دادیم.
حتما بخون و حمایت کن ❤️
https://www.instagram.com/p/C9sHe4xilz1/?igsh=d2duYnFvNXNqZzJo


به نطرت ارتباط بین مدل های LLM و AGI به چه شکل میتونه باشه؟
Poll
  •   برای رسیدن به AGI باید از مدل LLM استفاده کرد
  •   مدل های LLM ضعف بنیادی دارن و برای رسیدن به AGI باید کنار گذاشته بشن
  •   برای رسیدن به AGI باید مدل های LLM تغییر اساسی بکنن
  •   نَمیدانم!
176 votes


از OpenAI و ChatGPT چه خبرهای جدیدی داریم؟

همکاری با Dotdash Meredith

شرکت OpenAI با Dotdash Meredith، ناشر مجله‌ People، قراردادی امضا کرده که به OpenAI اجازه می‌ده از محتوای نشریات این شرکت برای آموزش مدل‌های هوش مصنوعی‌اش استفاده کنه.

همچنین، Dotdash Meredith می‌تونه از این مدل‌ها برای اهداف تبلیغاتی استفاده کنه.

این همکاری شامل ایجاد ویژگی‌های جدید برای خوانندگانه و به افزایش تعاملات بین ناشر و پلتفرم‌های هوش مصنوعی منجر می‌شه.

همکاری با Stack Overflow

شرکت OpenAI با امضای قراردادی با پلتفرم Stack Overflow، به API این پلتفرم و بازخوردهای توسعه‌دهندگان دست پیدا کرده.

در نتیجه در صورتی که کاربران سوالات فنی یا مربوط به کدنویسی داشته باشن، پاسخ‌های دقیق‌تر و کامل‌تری دریافت می‌کنن.

به زودی احتمالاً موتور جستجو ChatGPT رو خواهیم داشت!

احتمالاً OpenAI موتور جستجوی ChatGPT رو معرفی می‌کنه. سم آلتمن، مدیرعامل OpenAI، گفته که ChatGPT می‌تونه آینده جستجو باشه و قصد داره با ارائه پاسخ‌های دقیق‌تر نسبت به گوگل، تجربه جستجوی کاربران رو بهبود ببخشه.

موتور جستجوی ChatGPT از ترکیب جستجوی سنتی و قابلیت‌های چت‌بات هوش مصنوعی برای ارائه پاسخ‌های بهینه استفاده خواهد کرد.

اما سوال مهم اینکه پردازش با استفاده از هوش مصنوعی بسیار گرون‌تر از روش‌های الگوریتمی گوگله و OpenAI چطور می‌خواد این هزینه‌ رو مدیریت کنه؟

#openai #chatgpt
@silicon_brain I از هوش مصنوعی عقب نمانید


عملکرد هر یک از مدل های تولید تصویر
تو این ریپو خروجی هر یک از این مدل ها رو برای تسک Text-to-Image نشون داده

@silicon_brain | از هوش مصنوعی عقب نمانید


فاین تیون مدل‌های Mistral با درصدی کمی از وزن‌های متغیر

خب Mistral-finetune منتشر شد، یه کدبیس سبک‌وزن که امکان fine-tuning مدل‌های #Mistral رو فراهم می‌کنه. این مبتنی بر #LoRA هست، یه الگوی آموزشی که در اون بیشتر وزن‌ها ثابت هستن و فقط ۱ تا ۲ درصد وزن‌های اضافی به شکل اختلالات ماتریسی با رتبه پایین آموزش داده می‌شن.

از اون کارایی هست که سخت‌افزار زیاد لازم داره، بعضی از کاربرا میان مثلا با چند تا 3090 انجامش میدن
(البته با این رشد سرویس‌های کلاد AI نیاز نیست حتما تجهیزات خرید).

گیتهاب

@silicon_brain I از هوش مصنوعی عقب نمانید


تکنیک های پرامپت نویسی
A Systematic Survey of Prompting Techniques


راه تعامل و ارتباط با سیستم های جنریتور مثل #LLM ها برای کاربرها و دولوپرها از طریق #پرامپت و #prompt_engineering هست. با وجود این که prompting مفهومی گسترده است و به شدت مورد تحقیق قرار گرفته، اما به دلیل تازگی این حوزه، اصطلاحات متناقض و درک ضعیفی از آنچه که یک پرامپت را تشکیل می‌ده، وجود داره.

حالا محقق های کلی دانشگاه و کمپانی از جمله #Stanford و #OpenAI و #Microsoft اومدن و یک مقاله ۷۶ صفحه ای از ۵۸ تکنیک برای پرامپت نوشتن متنی و ۴۰ تکنیک برای modality های دیگه دادن که با فاصله بهترین منبع برای یادگیری نوشتن پرامپت به حساب میاد. از خوندنش لذت می‌برید.

این تکنینک‌ها زبان‌های دیگه را هم شامل می‌شه(multilingual).با نگاه به سرفصل‌های این کتابچه خودتون دستتون میاد. حالا این یک طرف، و از طرف دیگه، یک لایبرری اومده که همه این ۵۸ تا تکنیک را پیاده سازی کرده. فقط کافیه تکنیکی که می‌خواهید را روی پرامپتتون اجرا کنید تا پرامپت با کیفیت بگیرید.
مقاله | گیتهاب

@silicon_brain | از هوش مصنوعی عقب نمانید


در ادامه بازار شلوغ مدل های زبانی در مورد اخرین نسخه Sonnet بدونیم

چند وقت پیش شرکت #Anthropic از نسخه 3.5 هوش مصنوعی #Sonnet رونمایی کرد.
این نسخه به عنوان مدل میانی شرکت معرفی شده و به قدری بهبود یافته که نه تنها از GPT-4o قوی‌تره بلکه حتی از مدل پولی خود شرکت، یعنی #Opus، هم دقت بالاتری داره!

با این به‌روزرسانی، کاربران میتونن از یک مدل رایگان با کارایی بسیار بالاتر بهره‌مند بشن.
claude.ai
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید


مدل جدید Depth Anything برای تشخیص عمق

ورژن جدید این مدل که به تازگی منتشر شده در مقایسه با نسخه 1 (depth anything) پیش‌بینی‌های عمقی بسیار دقیق‌تر و ظریف‌تری ارائه میده.

در مقایسه با مدل‌های اخیر که مبتنی بر Stable #Diffusion ها بودن، Depth Anything 2 بسیار کارآمدتر (بیش از 10 برابر سریع‌تر) و دقیق‌تره. علاوه بر این، امکان اجرا در مقیاس‌های مختلف (از 25 میلیون تا 1.3 میلیارد پارامتر) رو فراهم میکنه.

این مدل کلا با تصاویر ساختگی ترین شده و روش آموزش این نسخه با مدل MDE (monocular depth estimation ) قبلی که بر اساس مدل DINOv2 بود متفاوت هست. در روش قبلی مدل ابتدا فقط با تصاویر مصنوعی با کیفیت بالا آموزش داده می‌شد و بعدش به تصاویر واقعی بدون لیبل، برچسب‌های با عمق مصنوعی اختصاص می‌داد. در نهایت، مدل‌های جدید نسخه دوم به‌طور کامل با تصاویر برچسب‌گذاری شده مصنوعی با دقت بالا آموزش داده میشن.

مقاله | هاگینگ فیس

@silicon_brain | از هوش مصنوعی عقب نمانید


مدل Vision-Language مایکروسافت بنام Florence-2

- خیلی سَبُکه. خبری از بیلیون پارامتر نیست
- یک شبکه همه کاره هست؛ یعنی، دیتکشن، سگمنتیش و غیره
- یک دیتاست هیولا برای آموزش مدل ساخته شده!

محقق‌ها میخواستن یه مدلی بسازن که بتونه از عهده تسک‌های متنوع ویژن مثل دیتکشن، سگمنتیشن، کپشنینگ و غیره بربیاد.

خب، دو مقوله اینجا مطرح میشه؛ یکی معماری شبکه و دیگری دیتاست آموزش. معماری شبکه نکته جدیدی نداره. شبیه سایر VLM-های امروزیه. دو نسخه مدل Base با 230 و Large با 770 میلیون پارامتر معرفی شده.

اما دیتاستی بنام FLD-5B ساختن که شامل 126 میلیون تصویر با 5 بیلیووون Annotation هست! اصل ایده مقاله همین بخش ساخت دیتاست هست. در مقاله، پایپلاین ساخت دیتاست رو در بخش Data Engine توضیح دادن.

یکسری تصویر از خروجی مدل Large براتون گذاشتیم که نگاه کنید؛ عجب دنیایی شده! دیگه یه مدل مخصوص دیتکشن یا سگمنتیشن بای بای...

مقاله | نوتبوک کولب | هاگینگ فیس

@silicon_brain I از هوش مصنوعی عقب نمانید


پکیج پایتون برای تبدیل pdf به word فارسی

این پکیج از Tesseract OCR برای تشخیص متن در فایل های PDF استفاده میکنه...

گیتهاب | pypi
@silicon_brain | از هوش مصنوعی عقب نمانید


آپدیتی از مدل‌های زبانی اخیر

تو پست ریپلای شده در مورد #LLM های مطرح و کاربرداشون صحبت کردیم. حالا یه مدل جدید به اسم Qwen2# منتشر شده که به نظر عملکرد خوبی داره...

اما چندتا نکته قابل توجه داره این مدل:
1- عملکرد بهتر از Llama3
2- سایز بزرگتر برای Context-length
3- انتشار مدل در ۵ سایز از 0.5B تا 72B پارامتر
4- و البته از همه مهمتر پشتیبانی از 29 زبان

اما چیزی که بسیار توجه جلب می‌کنه؛ امتیازش روی تست MMLU-Pro هست:
#ChatGpt4o : 72.2
#Claude 3 Opus : 68.4
#Qwen2 : 64.4
#Llama3 : 56.2
لینک

@silicon_brain I از هوش مصنوعی عقب نمانید


Video is unavailable for watching
Show in Telegram
داخل شبکه CNN چه اتفاقی میوفته؟

از بهترین نمایش های مدل #CNN که جزئیات #شبکه_عصبی رو به خوبی نشون میده.
شاید الان شبکه CNN، به نظر برسه ایده‌ش قدیمیه. اما تو این ویدیو می‌بینیم که چقدر تکنولوژی خفنی هست و ویژن خوبی به دنیای امروز داده!

ترکیبش با یک آهنگ کلاسیک :)

@silicon_brain | از هوش مصنوعی عقب نمانید


Video is unavailable for watching
Show in Telegram
مصورسازی فوق العاده از روند یادگیری شبکه عصبی در روابط غیرخطی و پیچیده

تئوری تقریب جهانی (Universal Approximation Theory) میگه که شبکه‌های عصبی مصنوعی با یک لایه پنهان، می‌تونن هر تابع پیوسته‌ای رو با دقت دلخواه تقریب بزنن. این تئوری خیلی تو یادگیری ماشین مهمه، چون نشون میده شبکه‌های عصبی می‌تونن انواع مختلف داده‌ها و روابط پیچیده غیرخطی رو مدل‌سازی کنن. البته تعداد نورون‌های لایه پنهان ممکنه خیلی زیاد بشه تا به دقت مورد نظر برسیم.

یوتوب
#شبکه_عصبی
@silicon_brain | از هوش مصنوعی عقب نمانید

3.3k 0 105 3 17

سازمان هوش‌مصنوعی؟!

یکی از اساتید دانشگاه، پیشنهاد تاسیس سازمان هوش مصنوعی رو داده و بعضی هم از این موضوع حمایت کردن و حتی در دولت قبلی هم گویا اقدام به تاسیس همچین سازمانی کردن!

اینجا یک اما وجود داره

کشوری مثل آمریکا مگه ستاد و سازمان هوش مصنوعی داره که اینطور پیشرفت کرده؟! خیر! آمریکا اقتصاد را کاملا باز گذاشته و شرکت‌های بزرگ آمریکایی مثل گوگل، مایکروسافت، OpenAI و Nvidia و DeepMind و هزاران استارتاپ دیگه هستند که تو هوش مصنوعی انقلاب کردند! علاوه بر این موضوع ایجاد ستاد و سازمانی با عنوان هوش مصنوعی مساوی‌ست با بزرگ‌تر شدن دولت این یعنی تضاد با اقتصاد بازار آزاد... و هزاران عامل دیگه!
):

@silicon_brain I از هوش مصنوعی عقب نمانید


داغ! ‏xLSTM تو حوزه تصویر هم حرفی برای گفتن داره

تو این پست (حتما بخون) در مورد اینکه #LSTM با رویکرد جدید اومده و تو حوزه متن خیلی سر و صدا کرده گفتیم، حالا #xLSTM تو حوزه ویژن هم حرفی واسه گفتن داره و با مدلی بنام #ViL معرفی شده.

از لحاظ کارایی هم عملکرد مطلوبی از خودش نشون داده و قابل قیاس با شبکه‌هایی مثل #ViT یا #DeiT هست.

رویکردش درمورد داده تصویری جالبه!

We introduce Vision-LSTM (ViL), an adaption of xLSTM to computer vision. In order to adjust xLSTM (an autoregressive model) to better handle non-autoregressive inputs such as images, we employ alternating bi-directional mLSTM blocks. Odd blocks process the image row-wise from top left to bottom right, while even blocks process the image from bottom right to top left.


لینک

@silicon_brain | از هوش مصنوعی عقب نمانید


Video is unavailable for watching
Show in Telegram
قبلا تو این پست در مورد افزایش سرعت چشمگیر با استفاده از #cudf شرکت #nvidia صحبت کردیم.
تو این ویدئو هم میشه راحت سرعتشو مقایسه کرد.

این کتابخونه به‌ طور خودکار متوجه میشه که شما روی GPU کار می‌کنین یا CPU و سرعت پردازش شما رو افزایش میده.

اصلا هم لازم نیس کدتون رو تغییر بدین، فقط کافیه بنویسین:
%load_ext cudf.pandas
import pandas as pd
@silicon_brain I از هوش مصنوعی عقب نمانید


جزئیات بیشتر مدل YOLOv10

این مدل در ۶ سایز معرفی شده:
نانو (n): ۲/۳ میلیون پارامتر
کوچک (s): ۷/۲ میلیون پارامتر
متوسط (m): ۱۵/۴ میلیون پارامتر
بزرگ (b): ۱۹/۱ میلیون پارامتر
بزرگ (l): ۲۴/۴ میلیون پارامتر
خیلی بزرگ (x): ۲۹/۵ میلیون پارامتر

این مدل دقت (mAP) بهتری روی مجموعه‌داده‌ی COCO داشته و به‌خاطر عدم استفاده از NMS به مراتب سریع‌تره. طوری که کوچک‌ترین سایز، هر تصویر رو تو ۱ میلی‌ثانیه پردازش می‌کنه (1000fps) و به راحتی میشه گفت بهترین مدل برای پردازش Real-Time ویدئو‌ها روی دستگاه‌های edge devices هستش

کد این مدل رو روی فریم‌ورک Ultralytics هستش بنابراین به کمک پکیج ultralytics به‌سادگی قابل استفاده‌ست.

نکته‌ی قابل توجه این که، این مدل تحت مجوز GNU GPL v3.0 منتشر شده، یعنی فقط تو پروژه‌های اوپن-سورس قابل استفاده‌ست و نمیشه از آن در محصولات close-source استفاده کرد.

مقاله | گیت‌هاب | فاین‌تیون مدل | دمو
#yolo
@silicon_brain I از هوش مصنوعی عقب نمانید


Video is unavailable for watching
Show in Telegram
Large Language Models and The End of Programming - CS50 Tech Talk with Dr. Matt Welsh

نظر استاد سابق دانشگاه هاروارد در مورد آینده برنامه نویسی و تغییر جهت به سمت آموزش #llm ها برای یادگیری مهارتهای مختلف از جمله برنامه نویسی رو توضیح میده.

رویکردی که برای آینده داره به این شکله که شما با استفاده از llm ها میتونین به ابزارها و API های مختلف وصل بشین و تسک مورد نظرتونو انجام بدین در نهایت نتیجه به دست اومده رو در قالب یک دیتابیس vector داشته باشین و استفاده بکنین
لینک کامل ویدیو
@silicon_brain | از هوش مصنوعی عقب نمانید


Forward from: Silicon Brain | جامعه هوش مصنوعی
احتمالا میدونید که #کتاب یادگیری عمیق گودفلو از اصلی ترین مراجع یادگیری عمیق هستش. تیم سیلیکون برین با کمک اعضای متخصص، اقدام به ترجمه و خلاصه سازی این کتاب در قالب 20 سری کرده و شما میتونید به صورت رایگان و داخل همین کانال این داکیومنت با ارزشو مطالعه کنید.

▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️

لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم

#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید


مدل YOLO v10 هم منتشر شد!
نیاز به توضیح بیشتری نداره (چه زود نسخه های جدید #yolo میاد /: )
گیتهاب | مقاله
مدل YOLO v9 | مدل YOLO v8
@silicon_brain | از هوش مصنوعی عقب نمانید

20 last posts shown.