• ایکاست اپراتور برگزیده خدمات فضاپایه در نهمین جشنواره فاوا

    Comments Off on ایکاست اپراتور برگزیده خدمات فضاپایه در نهمین جشنواره فاوا

    به گزارش روابط عمومی جشنواره ملی ارتباطات و فناوری اطلاعات، هم‌زمان با روز ملی ارتباطات و فناوری اطلاعات آیین معرفی برگزیدگان نهمین جشنواره ملی ارتباطات و فناوری اطلاعات در سالن شهید قندی وزارت ارتباطات و با حضور عیسی زارع پور، وزیر ارتباطات و فناوری اطلاعات و میثم لطیفی، رئیس سازمان اداری و استخدامی، بعد از وقفه‌ای چند ساله به دلیل شیوع بیماری کرونا، مجدداً برگزار شد. در پایان مراسم برگزیدگان نهمین جشنواره ملی ارتباطات و فناوری اطلاعات اعلام و از آن‌ها تقدیر به عمل آمد.

    لوح تقدیر

    شرکت عصر ارتباطات بین‌الملل پارس کار (ایکاست) در زیر محور ارائه‌دهندگان خدمات فضاپایه به عنوان برگزیده رتبه سوم این جشواره شناخته شد و لوح تقدیر و تندیس این جشنواره توسط آقای علی مرشدسلوک (مدیرعامل ایکاست) از وزیر ارتباطات و فناوری اطلاعات دریافت گردید.

    لوح تقدیر و تندیس این جشنواره توسط آقای علی مرشدسلوک (مدیرعامل ایکاست) از وزیر ارتباطات و فناوری اطلاعات دریافت گردید.

    به همین مناسبت ضمن سپاس از مشترکین و همکاران ایکاست که با همراهی خود در کسب این رتبه سهیم بوده‌اند، این موفقیت را تبریک عرض می‌کنیم و امیدواریم با تداوم این ارتباط شاهد دستاوردهای روزافزون این مجموعه باشیم.

    مشاهده رتبه‌ها در وبسایت وزارت ارتباطات و فناوری اطلاعات:

    https://festfava.ict.gov.ir/fa/news

    تصاویر بیشتر در خبرگزاری سیتنا:

    گزارش تصویری سیتنا از معرفی برگزیدگان نهمین جشنواره فاوا | سیتنا (citna.ir)

  • کسب جایزه برترین اپراتور در سال 1402

    Comments Off on کسب جایزه برترین اپراتور در سال 1402

    نهمین جشنواره ملی ارتباطات و فناوری اطلاعات با حضور شرکت­های فعال در حوزه­های گوناگون ICT کشور برگزار و شرکت عصر ارتباطات بین الملل پارس­ کار (ایکاست) به عنوان اپراتور برگزیده در حوزه مخابرات ماهواره ­ای انتخاب گردید. کسب این موفقیت را به کلیه مدیران، کارکنان، سهامداران، مشتریان و کلیه ذینفعان این سازمان تبریک و تهنیت عرض نموده و موفقیت بیش از پیش برای پیشبرد اهداف استراتژیک ایکاست را آرزومندیم.

  • ChatGPTچیست؟ یک مدل زبان بزرگ، فناوری پشت آن

    Comments Off on ChatGPTچیست؟ یک مدل زبان بزرگ، فناوری پشت آن

    تاریخ خبر: 15/03/2023

    مبانی داده ­ها، موارد استفاده و پروژه­ها Kurt Muehmel

    ارائه و معرفی ChatGPT توسط آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی  OpenAI در دسامبر 2022 توجه فوقالعاده را به ­خود جلب کرده­ است. این کنجکاوی در­مورد هوش مصنوعی به­ طور­ کلی تا کلاس فناوری­ هایی که به­ طور­ خاص زیر بنای چت ربات هوش مصنوعی هستند گسترش می ­یابد. این مدل‌ها که مدل‌های زبان بزرگ (LLM) نامیده می‌شوند، قادر به تولید متن در ­طیف به ­ظاهر بی‌پایانی از موضوعات هستند. درک LLM برای درک نحوه کار ChatGPT کلیدی است.

    چیزی که LLM­ ها را چشمگیر می­کند توانایی آنها در تولید متنی شبیه متن نوشته شده توسط انسان در تقریباً هر­زبانی (از جمله زبان­های کدنویسی) است. این مدل‌ها یک نوآوری واقعی هستند. هیچ ­چیز مشابه آنها در­ گذشته وجود­ نداشته است.

    این مقاله توضیح می ­دهد که این مدل­ها چیستند، چگونه توسعه یافته ­اند و چگونه کار می­ کنند. وبرای اینکه کاملاً بفهمیم چطور کار می­کنند. همانطور­که معلوم است، درک ما از اینکه چرا آنها کار می کنند بسیار ناچیز است.

    مدل زبان بزرگ (LLM) نوعی شبکه عصبی است

    شبکه عصبی نوعی مدل یادگیری ماشینی است که براساس تعدادی توابع کوچک ریاضی به نام نورون­ها ساخته­ شده­ است. مانند نورون­های مغز انسان، آنها پایین­ترین سطح محاسباتی را دارند.

    هر نورون یک تابع ریاضی ساده است که یک خروجی را بر­اساس مقداری ورودی محاسبه می کند. با ­این­حال، قدرت شبکه عصبی از اتصالات بین نورون­ها ناشی می­شود.

    هر نورون به برخی از همتایان خود متصل است و قدرت هر اتصال از طریق یک وزن عددی تعیین می­شود. آنها درجه­ای را تعیین می­کنند که خروجی یک نورون بعنوان ورودی به نورون بعدی در نظر گرفته می­شود.

    یک شبکه عصبی می­تواند بسیار کوچک باشد. بعنوان مثال، یک نورون پایه می­تواند شش نورون با مجموع هشت اتصال بین­آنها داشته باشد. با­این­حال، یک شبکه عصبی نیز می­تواند بسیار بزرگ باشد، همانطور که در مورد LLM­ ها صدق­ می ­کند. اینها ممکن است میلیون­ها نورون با صدها میلیارد اتصال بین آنها داشته باشند که هر اتصال وزن خاص خود را دارد.

    یک LLM از معماری ترانسفورماتور استفاده می­کند

    ما تا کنون می‌دانستیم که LLM نوعی شبکه عصبی است. به­طور خاص ، LLM­ها از معماری شبکه عصبی خاصی به نام ترانسفورماتور یا مبدل استفاده می­کنند که برای پردازش و تولید داده های متوالی مانند متن طراحی شده است.

    معماری در­ این ­زمینه نحوه اتصال نورون­ها به­ یکدیگر را توصیف می­کند. همه شبکه ­های عصبی نورون­ های خود را در چندین لایه مختلف گروه­بندی می­کنند. اگر لایه‌های زیادی وجود داشته باشد، شبکه بعنوان «عمیق» توصیف می‌شود، که اصطلاح «یادگیری عمیق» از آنجا آمده است.

    در یک معماری شبکه عصبی بسیار ساده، هر نورون ممکن است به هریک از نورون­ها در لایه بالای خود متصل شود. در برخی­ دیگر، یک نورون ممکن است فقط به برخی از نورون­های دیگر که در نزدیکی آن در یک شبکه قرار دارند متصل شود.

    مورد دوم در شبکه‌های عصبی کانولوشنال (CNN) وجود دارد. سی‌ان‌ان‌ها پایه­و­اساس تشخیص تصویر مدرن را در دهه گذشته تشکیل داده‌اند. این واقعیت که CNN در یک شبکه (مانند پیکسل های یک تصویر) ساختار یافته است تصادفی نیست. در­واقع، این دلیل مهمی است برای­اینکه چرا آن معماری برای داده­های تصویری به­ خوبی کار می­کند.

    با­این­حال، ترانسفورماتور تا­حدودی متفاوت است. یک ترانسفورماتور که در سال 2017 توسط محققان گوگل ساخته شد، ایده «توجه» را معرفی می‌کند، به موجب آن نورون‌های خاصی که قوی‌تر هستند به نورون‌های دیگر در یک توالی متصل می‌شوند یا «به آنها توجه بیشتری می‌کنند».

    از آنجایی که متن در یک دنباله خوانده می شود، یک ی­پس­از­ دیگری، با بخش‌های مختلف یک جمله که به دیگران اشاره می‌کند یا آن را تغییر می‌دهد (مانند صفتی که اسم را تغییر می‌دهد اما فعل را تغییر نمی‌دهد) همچنین تصادفی نیست که معماری ای که برای کار متوالی، با نقاط قوت ارتباط متفاوت بین بخش­های مختلف آن دنباله ساخته ­شده ­است، باید روی داده­های متنی به ­خوبی کار کند.

     یک LLM خودش را می­سازد

    بعبارت ساده‌تر، مدل LLM یک برنامه کامپیوتری است. مجموعه­ای از دستورالعمل­ها است که محاسبات مختلفی را روی داده­های ورودی خود انجام می­دهد و یک خروجی ارائه می­دهد.

    با ­این­حال، چیزی که در مورد یادگیری ماشین یا مدل هوش­ مصنوعی مهم است، این­ است­ که به­ جای نوشتن آن دستورالعمل­ها به ­طور­صریح، در­ عوض برنامه­ نویسان انسانی مجموعه­ای از دستورالعمل­ها (یک الگوریتم) را می­ نویسند که سپس حجم زیادی از داده­های موجود را برای تعریف خود مدل بررسی می­کند. به ­این­ترتیب، برنامه­ نویسان انسانی مدل را نمی­سازند، بلکه الگوریتمی را می­سازند که مدل را می­سازد.

    در مورد LLM، این بدان­ معناست که برنامه­ نویسان معماری مدل و قوانینی را که بر­اساس آن ساخته می­شود، تعریف می­کنند. اما آنها نورون­ها یا وزنه­های بین نورون­ها را ایجاد نمی­کنند. این در فرآیندی به نام "آموزش" انجام می­شود که در ­طی ­آن مدل، به­ دنبال دستورالعمل ­های الگوریتم، خود آن متغیرها را تعریف می­کند.

    در مورد LLM، داده­ای که بررسی می­شود متن است. در­برخی­موارد، ممکن است تخصصی­تر یا عمومی­تر باشد. در بزرگ‌ترین مدل‌ها، هدف، ارائه هرچه­بیشتر متن دستوری به مدل برای یادگیری است.

    در ابتدا، خروجی نامفهوم است، اما از­طریق یک فرآیند عظیم آزمون­و­خطا و با مقایسه مداوم خروجی آن با ورودی آن کیفیت خروجی به­تدریج بهبود می­یابد و متن قابل فهم­تر می­شود.

    با­توجه ­به زمان کافی، منابع محاسباتی کافی و داده­های آموزشی کافی، مدل یاد می­گیرد که متنی را تولید کند که برای خواننده انسانی، از متن نوشته شده توسط انسان قابل تشخیص نیست. در برخی موارد، خوانندگان انسانی ممکن است بازخوردی را به شکل نوعی مدل پاداش ارائه دهند و زمانی که متن به­خوبی خوانده می‌شود یا زمانی که خوانده نمی‌شود به­آن بگویند (به این می‌گویند «یادگیری تقویتی از بازخورد انسانی» یا RLHF). مدل این را در نظر می­گیرد و به­طور­مداوم خود را بر­اساس آن بازخورد بهبود می­بخشد.

    یک LLM پیش­بینی می­کند که کدام کلمه باید کلمه قبلی را دنبال کند

    یک توصیف بسیار ساده از LLMها این­است که آنها «به­سادگی کلمه بعدی را در یک دنباله پیش‌بینی می‌کنند». این درست است، اما این واقعیت را نادیده می­گیرد که این فرآیند ساده می تواند به این معنی باشد که ابزارهایی مانند ChatGPT متن با کیفیت بسیار بالایی تولید می­کنند. به­ همین­ سادگی می‌توان گفت که «مدل به­ سادگی محاسبه ریاضی انجام می‌دهد»، که این نیز درست است، اما برای کمک به درک نحوه عملکرد مدل یا درک قدرت آن چندان مفید نیست.

    نتیجه فرآیند آموزشی که در بالا توضیح داده شد یک شبکه عصبی با صدها میلیارد اتصال بین میلیون‌ها نورون است که هر­کدام توسط خود مدل تعریف شده‌اند. بزرگترین مدل­ها حجم زیادی از داده­ها را نشان می­دهند، شاید چند صد گیگابایت فقط برای ذخیره تمام وزن­ها.

    هر­یک از وزن­ها و هر­یک از نورون­ها یک فرمول ریاضی است که باید برای هر کلمه (یا در­برخی موارد، بخشی­از یک کلمه) که برای ورودی آن در­اختیار مدل قرار می­گیرد و برای هر کلمه (یا بخشی از یک کلمه) محاسبه شود که به عنوان خروجی خود تولید می­کند.

    این جزئیات فنی است، اما به­ این «کلمات کوچک یا بخش‌هایی از کلمات» «نشان‌ها» یا «توکن ها»  گفته می‌شود، که معمولاً وقتی استفاده از این مدل‌ها بعنوان یک سرویس ارائه می‌شوند، قیمت‌گذاری می‌شود. در ادامه در مورد آن بیشتر توضیح خواهیم داد.

    کاربر در­حال تعامل با یکی­از این مدل­ها، ورودی را در قالب متن ارائه می­دهد. برای ­مثال، می‌توانیم دستور زیر را به ChatGPT ارائه کنیم:

    سلام ChatGPT ، لطفا یک توضیح 100 کلمه­ای از Dataiku به من ارائه دهید.

    شرحی از نرم­افزار و ارزش اصلی آن را درج کنید

    سپس مدل‌های پشت ChatGPT این درخواست را به توکن تبدیل می‌کنند. به طور متوسط، یک نشانه ⅘ از یک کلمه است، بنابراین دستور بالا و 23 کلمه آن ممکن است منجر­به حدود 30 نشانه شود. مدل GPT-3 که مدل gpt-3.5-turbo مبتنی ­بر آن است، 175 میلیارد وزن دارد، به­ این­ معنی که 30 توکن متن ورودی به 30x 175 میلیارد = 5.25 تریلیون محاسبات منجر می­شود. مدل GPT-4 که در ChatGPT نیز موجود است، دارای وزن نامشخصی است.

    سپس، مدل شروع به تولید پاسخی می‌کند که بر­اساس حجم متنی که در­طول آموزش مصرف کرده، درست به نظر می‌رسد. نکته مهم این است که چیزی در مورد سوال جستجو نمی­کند. هیچ حافظه‌ای ندارد که بتواند «dataiku»، «value proposition»، «software» یا هر­عبارت مرتبط دیگری را جستجو کند. در­عوض، تولید هر نشانه متن خروجی را آغاز می­کند، 175 میلیارد محاسبات را دوباره انجام می­دهد، و رمزی را تولید می­کند که به ­احتمال قوی­تر درست به نظر می رسد.

    LLM­ها متنی را تولید می­کنند که درست به­ نظر می­رسد اما نمی ­توانند تضمین کنند که درست باشد.

    ChatGPT نمی­تواند تضمینی برای درست بودن خروجی­ش ارائه دهد، آن فقط درست به ­نظر می­رسد. پاسخ‌های آن در حافظه‌اش جستجو نمی‌شوند آنها بر اساس 175 میلیارد وزنی که قبلاً توضیح داده شد، ایجاد می‌شوند.

    این نقص مختص ChatGPT نیست، بلکه مربوط به وضعیت فعلی همه LLM­ها است. آنها مهارتی در یادآوری واقعیات ندارند. ساده­ترین پایگاه­های داده این کار را به­خوبی انجام می­دهند. در عوض، نقطه­قوت آنها در تولید متنی است که مانند متن نوشته شده توسط انسان خوانده می­شود و خوب به­نظر می­رسد. در بسیار ی­از ­موارد، متنی که درست به نظر می­رسد نیز در­واقع درست خواهد بود، اما نه همیشه.

    در آینده، این احتمال وجود دارد که LLM­ها در سیستم­هایی ادغام شوند که قدرت تولید متن LLM را با یک موتور محاسباتی یا پایگاه دانش ترکیب می­کنند تا پاسخ­های واقعی را در متن زبان­طبیعی بصورت قانع کننده­ای ارائه دهند. آن سیستم‌ها امروزه وجود ندارند، اما به­راحتی می‌توان تخمین زد که چقدر طول می‌کشد تا آنها را ببینیم.

    امکان دیگر این است که اگر می‌خواهید اطلاعاتی را که قبلاً دارید در قالب پاسخ زبان طبیعی به کاربران ارائه دهید، می‌توانید آن پاسخ‌ها را به ابزارهایی مانند ChatGPT ارائه دهید و از آنها بخواهید بر­اساس آن پاسخ‌ها جوابی بسازند. Dataiku یک نسخه نمایشی با استفاده از GPT-3 برای ارائه پاسخ از اسناد Dataiku ایجاد کرده است که دقیقاً این کار را انجام می­دهد.

    آیا GPT-4 یک LLM است؟

    در 14 مارس 2023، OpenAI ، آخرین نسخه از مدل­های خود را در خانواده GPT به نام GPT-4 منتشر کرد. علاوه­ بر تولید متن با کیفیت بالاتر در­مقایسه با GPT-3.5، GPT-4 توانایی تشخیص تصاویر را نیز ارائه می­دهند. ممکن است قادر به تولید تصاویر نیز باشد. با­این­حال، این قابلیت، اگر وجود داشته باشد، هنوز در­دسترس نیست. توانایی مدیریت داده­های ورودی­ و­ خروجی از انواع مختلف (متن، تصاویر، ویدئو، صدا و غیره) به­ این­ معنی است که GPT-4 چند­وجهی است.

    اصطلاحات مربوط ­به ­این مدل­های آخر به­ سرعت در­حال تکامل است، مطابق با برخی از بحث­ها در جامعه متخصص استدلال می­شود که "مدل زبان" بسیار محدود­کننده است. اصطلاح "مدل بنیاد" توسط محققان در استنفورد رایج شده است، اما همچنین منبع بحث­هایی است. مانند خود فناوری، زبان مورد استفاده برای توصیف فناوری به­سرعت به تکامل خود ادامه خواهد داد.

    استفاده از ChatGPT، GPT-4 و مدل­های زبان بزرگ (LLM) در سازمان

    ما از ChatGPT و یکی از مدل‌های آن، gpt-3.5-turbo، بعنوان­ مثال در سراسر این مقاله استفاده کرده‌ایم، اما این تنها یک مدل و یک محصول در­ میان بسیاری از آن‌ها است. برخی از LLM­ها اختصاصی هستند و از­طریق یک رابط وب یا یک API مانند ChatGPT قابل دسترسی هستند. سایر LLM­ ها منبع باز (open source) هستند و اگر توان محاسباتی و مهارت لازم برای انجام این کار را داشته باشند، می­توانند توسط یک دانشمند یا مهندس داده باهوش دانلود و اجرا شوند. برای هر رویکرد جانشین­هایی وجود دارد.

    مطالعه کامل خبر

  • بازخورد مثبت مشتریان در پاییز 1401 نسبت به سرویس ایکاست

    Comments Off on بازخورد مثبت مشتریان در پاییز 1401 نسبت به سرویس ایکاست

    شرکت ایکاست مفتخر است که در راستای ارائه خدمات و سرویس های بهتر به مشتریان گرامی اقدام به نظر سنجی دوره ای نموده و اعلام می دارد که طبق تحلیل آماری بازخورد مشتریان موفق به کسب متوسط امتیاز 3.6 از 4 با روش طیف لیکرت و امتیاز 73 از 100 با روش ان پی اس شده است.

  • پنج دلیل که بایگانی الکترونیکی شما را در کارتان برجسته می­کند

    Comments Off on پنج دلیل که بایگانی الکترونیکی شما را در کارتان برجسته می­کند

    مدیریت الکترونیکی بایگانی ها تا حدی به دلیل سقوط سیستم‌های بایگانی مبتنی بر کاغذ، و همچنین به دلیل کارایی بالاتری که با سیستم‌های مدیریت الکترونیکی جامع تجربه می‌شود به سرعت در حال محبوب‌تر شدن است.

    در این مقاله برخی از راه‌های کلیدی وجود دارد که نشان می دهد بایگانی های الکترونیکی زمانیکه به درستی مدیریت شوند، می‌توانند شما را در شغل خود برجسته کنند، به خصوص اگر یک مدیر منابع انسانی یا مدیر مجموعه ای از افراد باشید.

    آنها در وقت شما صرفه جویی می کنند

    مدیریت بایگانی ها مبتنی بر کاغذ یک کار وقت گیر است. شما به کارکنانی نیاز دارید که مدیریت بایگانی ها ، از جمله ایجاد پرونده ، تشکیل پرونده، مکان یابی و به روز رسانی اسناد را به طور منظم انجام دهند. بایگانی های الکترونیکی به کاهش زمان مدیریت مورد نیاز کمک می کند، و به شما امکان می دهد بر روی چیزهای مهم تر در کارتان تمرکز کنید.

    آنها مدیریت کارکنان را بهبود می بخشند

    مدیریت بایگانی ها بصورت تخصصی یک عامل کلیدی کمک کننده به مدیریت موثر کارکنان است. بایگانی های کافی، معیارها و جدول زمانی مهم کارکنان را نشان می دهد، مانند بررسی عملکرد، انتظارات بهره وری، گواهینامه های مجدد، بررسی حقوق و دستمزد و موارد دیگر. هنگامیکه این موارد در جایی متمرکز هستند، مدیران بهتر می توانند از این اطلاعات برای اطلاع رسانی تصمیمات موثر بر کارکنان استفاده کنند.

    آنها انطباق مقررات را بهبود می بخشند

    سیستم های مدیریت بایگانی به روش الکترونیکی به شما این امکان را می دهد که اطمینان حاصل کنید که اطلاعات مربوط به کارکنان دقیق و ایمن است. این به کاهش خطر در هنگام استفاده نادرست از اطلاعات، ایجاد محدودیت‌ها و کنترل‌های دسترسی و پیروی از قوانین ایالتی و فدرال کمک می‌کند. برای مدیران منابع انسانی و افراد، هرچه آمادگی بیشتری برای رعایت قوانین و مقررات داشته باشید، خطر کمتری برای نقض قوانین دارید و سازمان شما در برابر عواقب قانونی محافظت بیشتری دارد.

    آنها به شناسایی مسائل کمک می کنند

    همانند بهبود مدیریت کارکنان، استفاده از سیستم مدیریت بایگانی ها به روش الکترونیکی می تواند به شما کمک کند تا از اسناد بعنوان یک چارچوب مرجع برای شناسایی مسائل استفاده کنید. این موارد می تواند شامل مواردی مانند جبران بیش از حد، تغییرات در عملکرد کارکنان و موارد دیگر باشد. هنگامیکه معیارهای مربوط به کارمندان را به طور مؤثر پیگیری می کنید، می توانید مشکلات را شناسایی کرده و در صورت نیاز اقدامات اصلاحی انجام دهید.

    آنها شما را از شر کوه های کاغذی خلاص می کنند

    بایگانی های کاغذی یک مشکل بسیار واضح را نشان می دهد: آنها فضای ارزشمندی را اشغال می کنند. علاوه بر این، نگهداری آنها بسیار پرهزینه است (مثلاً در نظر بگیرید که پر کردن کمد بایگانی چهار در به طور متوسط 25000 دلار هزینه دارد). جایگزین کردن بایگانی الکترونیکی نه تنها به شما در صرفه جویی در فضا، بلکه در هزینه نیز کمک می کند. گذشته ازآن، مزایای زیست محیطی ناشی از کاهش مصرف کاغذ را فراموش نکنید!

    مدیریت الکترونیکی بایگانی ها، در حالیکه ممکن است به اندازه سایر عملکردهای کسب و کار از اولویت بالایی برخوردار نباشد، اما می تواند اثرات واقعی و قابل اثباتی داشته باشد که توانایی شما را برای برتری در شغلتان بهبود می بخشد.

    مطالعه کامل خبر

    #بایگانی الکترونیکی

عصر ارتباطات بین الملل پارس کار 2024-2007 ، شماره پروانه 100/70897