وب لاگ امیرحسین اسعدی

آنچه یادگرفتم، خواندم و دیدم رو اینجا به اشتراک می‌گذارم
I share what I learned, read and saw

طبقه بندی موضوعی
آخرین نظرات
  • ۸ خرداد ۰۲، ۱۵:۲۲ - احمد صداقت زاده
    عالی

۱۹ مطلب با موضوع «پژوهش یار» ثبت شده است

من این مقاله رو با دقت بیشتری خوندم چون میخواستم بیشتر راجع به مولفه‌ها، در آزمایش‌های پردازش گفتار آشنا بشم.

این مقاله (+) توسط یک تیم ژاپنی نوشته شده، و حرف اصلیش اینه که آهای ملت، تافل آیلتس رو بگذارین کنار، داده‌های EEG شما میتونه نشون بده زبان تون در چه سطحی هست. ادعای جالبی هست و بنظر هم دور نیست که به همچینین تکنولوژی ای  برسیم. توی این پست با جزئیات کارشون کاری ندارم و فقط میخوام گزارش مطالعه خودم رو از قسمت Discussion مقاله با شما به اشتراک بگذارم.

مثل اکثر بحث ها اول با اینکه کلا در آزمایشمون چیکار کردیم شروع شده و نتایجی که دیده رو گفته. بعد به طور خاص راجع به سه مولفه N1، P2 و N400 صحبت کرده. در نهایت هم از محدودیت‌های کارشون گفته و نتیجه گیری کرده. من در این مطالعه تمرکزم بر روی سه مولفه بود. ابر کلمات متن‌های مرتبط رو رسم کردم و کلمه های پر تکرار رو براتون می‌نویسم.

Native, Attention, Listening, Amplitudes, N1, Proficiency, L2, Speech, N400, P2, and Latency.

پیش نوشت اول: قبل از اینکه از جزئیات مولفه‌ها بگم، یادآوری میکنم که پیش نیاز ادامه متن آشنایی مقدماتی با ERP، و مولفه‌هاش هست. نام گذاری مولفه‌ها به این صورت هست که زمان و مثبت یا منفی بودنش رو گزارش میدیم. مثلا N1 یعنی مولفه‌ای که در ۱۰۰ میلی ثانیه رخ میده و منفی هست یا P2 یعنی در  ۲۰۰ میلی ثانیه رخ میده و مثبت هست. N400 یعنی ۴۰۰ میلی ثانیه رخ میده و منفی هست.

پیش نوشت دوم: میشه کلمات رو به دو دسته open class words که شامل  nouns, verbs and adjectives هستن و close class word  که شامل pronouns and conjunctions هستن تقسیم کرد.

پیش نوشت سوم: میشه گفت ما دو نوع توجه داریم، توجه بالا به پایین (میتونید بالا رو مغز و پایین رو چشم فرض کنید) که توی اون مغز دستور میده به فلان جا توجه کن، و توجه پایین به بالا که محرک خواصی از طریق چشم توجه مغز رو به خودش جلب میکنه.

مولفه N1

  • اینها در آزمایش شون بین زمان رخ دادن پیک N1 و نمره تسک شنیداری شون رابطه پیدا کردن
  • ارتفاع مولفه شنیداری با میزان توجه ما به یک صدا فرق میکنه. مثلا اگه تو یک مهمونی بخوایم بفهمیم هوشنگ به صدای هایده گوش میده یا شهرام کافیه میزان ارتفاع N1 رو برای هایده و شهرام حساب کنیم و مثلا می‌بینیم برای هایده بیشتره با اینکه هوشنگ روش به سمت شهرامه و به ظاهر داره سر تکون میده. اما فعالانه حواسش به حرفای هایده هست و به حرف‌های شهرام گوش نمیده.
  • نقش توجه انتخابی در یادگیری زبان دوم یا همون L2 قبلا بررسی شده.
  • نشون داده شده که افراد به کلمات open class words بیشتر از close class words توجه میکنند.
  • تو یک مطالعه با داده چشمی، شرکت کننده‌هایی که به موارد آزمون توجه داشتن عملکرد بهتری داشتن
  • افرادی که L2 بهتری داشتن، کنترل شناختی بهتری هم داشتن
  • مطالعات بالا نشون میده توجه بیشتر یعنی یادگرفتن بیشتر
  • یکی از زمان‌های مهم برای درک گفتار توسط مغز شروع کلمه هست
  • پیشنهاد دادن که N1 با توجه بیشتر کمک میکنه بتونیم جمله رو به اجزای کوچیکترش بشکونیم، حتی اگر جمله با کلمات بی معنی درست شده باشه
  • با توجه به اینکه N1 میتونه شاخصی از تقسیم بندی گفتار باشه، پس اینکه ما هم دیدم آدم هایی که نمره بهتری دارن N1 براشون زود تر رخ داده به نظر منطقی هست

مولفه P2

  • برای ما دامنه و تاخیر P2 با نمرات آزمون شنیداری همبستگی منفی داشتن
  • P2هم مثل N1 با توجه تغییر میکنه
  • برخلاف N1 با افزایش توجه دامنه P2 کاهش پیدا میکنه
  • دامنه P2 در طول به خواب رفتن افزایش پیدا میکنه
  • پس اینکه ما دیدم P2 برای افرادی قوی کوچک شده طبیعی هست
  • حفظ توجه و اطلاعات زمینه‌ای میتونه به توجه بالا به پایین کمک کنه
  • وقتی در کنار صوت تصویر هم داشتیم و این تصویر کمک میکرده کلمات رو بهتر پیش بینی کنیم باعث میشده N1P2 زود تر رخ بدن و ارتفاع P2 کمتر بشه
  • پس بر اساس این نتایج افراد قوی تر سعی میکنن خودشون زمینه های دیگه رو هم فراهم کنن تا بهتر یاد بگیرن

 

 

مولفه N400

  • ما دیدیم تاخیر مولفه N400 با نمره شنیداری رابطه منفی داره، به عبارت دیگه هرچی آدم L2ش قوی تر باشه N400ش زود تر رخ میده
  • مطالعات زیادی در EEG نشون دادن N400 نشان دهنده پردازش معنایی هست
  • بنظر ما چون دیدیم که N1 و P2 هم با مهارت شنیداری رابطه داره، احتمالا پردازش سطح پایین مثل درک آواها و تقسیم بندی گفتار زود تر رخ بده سبب میشه پردازش سطح بالاتر مثل معنای کلمه هم زود تر درک بشه
  • نتایج  ما با آزمایش قبلی مون میخونه، اونجا به سه گروه، انگلیسی زبان، ژاپنی‌ای که انگلیسی خوب بلده، و ژاپنی‌ای که انگلیسی خوب بلد نیست متن رو به صورت کلمه به کلمه نشون دادیم. و اونجا هم دیدیم هرچی زبان انگلیسی طرف قوی تر باشه N400ش زود تر رخ میده.
  • ما دیدیم دامنه N400 هم با نمره زبان رابطه داره  هرچی زبان قوی تر دامنه بیشتر، که البته با مطالعات قبلی ناسازگار بود
  • دیده شده افرادی که زبان شون اسپانیایی هست، هرکی N400ش کوچیک تره(دامنه) زبان L2ش قوی تره، و گفته شده که احتمالا کسی که زبانش قوی نیست باید تلاش بیشتری بکنه تا معنای کلمات رو ترکیب کنه و جمله رو بفهمه.  البته این آزمایش به صورت ERP  و در حالی که کلمه ها روی مانیتور نوشته شدن انجام شده
  • شاید دلیل نتیجه متفاوت ما نوع متفاوت آزمایش ما باشه، ما داده رو به صورت پیوسته گرفتیم و  یک فایل صوتی دادیم
  • مطالعات مختلف نشون داده N400 رو میشه به روش‌های مختلف ایجاد کرد، یعنی چه شما کلمات رو نشون بدی چه عکسشو بگذاری چه فایل صوتی شو پخش کنی همه اینا میتونه N400 ایجاد کنه
  • در N400 ما دو داستان داریم: اول کلمه از رو لانگ ترم مموری مون بیاریم، دو معنای کلمه رو با کلمه های اطرافش ترکیب کنیم و جمله رو بفهمیم.

تفاوت میان standard error و standard deviation و confidence interval

به روز شده در: ۱۷ اردیبهشت ۱۴۰۱

در علم آمار مفاهیمی داریم که ممکنه باهم اشتباه بگریمشون و به جای هم دیگه استفاده کنیم.

  • Standard Deviation
  • Standard Error
  • Confidence INterval

پیش نوشت: هرجا رابطه ریاضی در متن دیدین من اونها رو در قالب لتک نوشتم و مثلا میتونید اینجا پیست کنید و بهتر ببینید شون.

اول به standard deviation می‌پردازیم.

deviation  از deviate میاد که اینم اگه برگردیم عقب از de+way = away تشکیل شده. تو فارسی هم بهش انحراف میگن و standard رو هم معیار. و در کل شده انحراف معیار یا انحراف استاندارد. و وقتی ما یکسری مشاده از یک متغیر داشته باشیم میخوایم بدونیم این مشاهدات چقدر پایدارن، آیا هردفعه عوض میشن یا نه یک متر میتونه standard deviation یا به اختصار SD باشه. از این مفهموم برای توضیح داده‌هامون یا description بکار میره.

انحراف معیار جذر واریانس هست. و رابطش اینطوری حساب میشه.

S.D = \sqrt{\dfrac{(x_i-\bar x)^2}{n-1}}

مثلا اگه اومده باشم از توی باغ سه تا کرم پیدا کرده باشم و طولشون رو با خط کش اندازه بگیرم حاصل این ها شده ۳و۵و۷ سانتیمتر میانگین طول کرم‌ها ۵ سانتیمتر هست و انحراف معیار مثبت و منفی دو سانتیمتر هست. یا اگه طول کرم ها ۴و۵و۶ سانتیمتر می‌شد میانگین ۵ سانتیمتر و انحراف از معیار مثبت و منفی یک سانتیمتر می‌شد.

اما Standard Error  یا Standard Error of the Mean(SEM) چیه؟

به لحاظ مفهومی یعنی همون میانگین رو احتمالا با چه خطایی اندازه گیری کردیم؟ چقدر میانگینی که اندازه گیری کردیم از میانگین واقعی میتونه دور باشه؟ پراکندگی میانگین‌ها چقدر هست؟

توی زبان فارسی بهش خطای استاندارد یا خطای معیار هم میگن. گاهی میایم کل آزمایش و مشاهداتی که داشتیم رو مثلا ۲۰ بار دیگه تکرار می‌کنیم که مثلا اگه تو گزارش مون اوردیم میانگین فلان چیز بهمانه بگیم نگا حرف درسته، چون من کل آزمایشم رو ۲۰ بار دیگه هم تکرار کردیم و SD میانگین شده یک عدد کم. جالبه نه؟به عبارت دیگه این دفعه نمونه‌های من طول کرم‌ها نیستن بلکه میانگین‌هایی هست که حساب کردم.

حالا خوبیش این هست که لازم نیست شما آزمایش‌تون رو لزوما n بار دیگه تکرار کنید کافیه با رابطه‌های که موجود هست میزان Starndard Error یا SE رو گزارش بدین. از این مفهوم نه برای توضیح داده بلکه برای نتیجه گرفتن یا inference از داده‌ها استفاده می‌کنیم.

رابطش چیه؟

Standard Error = \dfrac{Standard Deviation}{\sqrt{n}}

سوال: حالا فایده‌ی خطای استاندارد چیه؟  چه زمانی از SD و چه زمانی از SE استفاده می‌کنیم؟

فرض کنیم توی سوال من اینه میخوام ببینم طول کرم‌هایی که تو باغ‌های هویج هستن با باغی که توش زالزالک کاشتیم تفاوت دارن یا نه؟ مثال دنیای واقعی ترش هم امید به زندگی در افرادی که ورزش می‌کنند و افرادی که ورزش نمی‌کنند.  حالا من میرم میانگین رو در دو گروه اندازه گیری میکنم. یکی میشه ۷۰ سال یکی میشه ۷۵ سال و در مثال کرم هم یکی میشه ۴ سانتیمتر و اون یکی میشه ۵ سانتیمتر.

حالا میخوام  بگم نگاه کنید این دو گروه با هم میانگین ها تفاوت دارن، کمی به این سوال فکر کنید و بعد ادامه مطلب رو بخونید. به نظر شما اینجا باید از SEM یا از SD استفاده کنم؟

بله احتمالا همون طور که حدس زدین برای اثبات حرفم اینجا بهتره از SEM استفاده کنم و بگم ببینم خطای استاندارم کم هست در نتیجه این دو گروه ورزشکار و غیر ورزشکار از هم واقعا تفاوت دارن ولی SEM طول کرم‌ها زیاد شده و در نتیجه طول کرم ربطی باغ هویج یا زالزالک نداره.

توجه داشته باشین همیشه طول SE از طول SD با یک ضریب رادیکال n کوچکتر هست. به عبارتی SD که تون رو حساب کردین تقسیم بر ردایکال اِن کنید میشه طول SE تون.

بازه اطمینان یا Confidence Interval

اگر بیایم و همون SE رو در ۱.۹۶ ضرب کنیم(همون تقریبا دو برابر کنیم) حالا ما به بازه اطمینان رسیدیم. بازه اطمینان به ما چی میگه؟ میگه اگر بیایم آزمایش مون رو بینهایت بار تکرار کنیم با احتمال ۹۵ درصد میانگین واقعی مون طوی بازه اطمینان میوفته.

اگر در یک آزمایش ببینیم بازه اطمینان دو حالت باهم تفاوت داره، میتونیم نتیجه بگیرم که این تفاوت به احتمال ۹۵ درصد معنی داره (یعنی p-value < 0.05) هست. و اگه بازه اطمینان دو حالت با هم اشتراک داشت یعنی p-valuse مون بیشتر از پنج صدم هست و این اختلاف دیده شده معنی دار نیست.

بیشتر بدانید:

قانون ۶سیگما چی میگه؟ میگه بیاد SD تو حساب کن طول error bar تو ۶برابر کن سه تا بیا بالا و سه تا هم پایین. حالا به احتمالا ۹۹ درصد تک تک نمونه‌های تو در این بازه میفتن.

take home message:

اگر مهم اینکه من چه نمونه‌هایی دیدم و چه نمون‌هایی خواهم دید از SD استفاده کنیم ولی اگه خواستیم بگیم میانگین دو چیز با هم متفاوتن بهتره از SE استفاده کنیم.

منبع(+)

وقتی به تازگی ارشد قبول شده بودم، خیلی دوست داشتم با سال بالایی هام صحبت کنم و از تجربه‌هاشون بشنوم که ابهام این دوره برام کمتر بشه و بتونم این دوره رو بهتر بگذرونم. امسال با اومدن ورودی های جدید بنظرم وقتش رسیده بود که خودم مطالبی که به ذهنم میرسه رو در قالب یک پست بلاگ اینجا به اشتراک بگذارم. امیدوارم که مفید واقع بشه.

در گذشته برای خوندن مقاله بعد از پیدا کردن و دریافتش شروع میکردم به خوندن از عنوان مقاله تا نتیجه گیری. اما خیلی زود فهمیدم این روش جواب نمیده چرا که واقعا به بعضی از اطلاعات اون وسط مقاله احتیاجی نداشتم، دیدن تصاویر مقاله کمک میکرد ساختار بهتری از آزمایشی که انجام بدن بدست بیارم و این طوری خوندن واقعا زمان زیادی می‌گرفت از من. و دیگه اینکه به مقالات review بیشتر از اون مقداری که لازمه اهمیت میدادم در حالی که بعدها فهمیدم اگه یک مقاله به خوبی نوشته شده باشه در همون قسمت introduction اطلاعات خوبی از پیشینه پژوهش بدست میاریم.

من اکنون چطور مقاله میخونم؟

معمولا بعد از دریافت مقاله ابتدا عنوان رو میخونم و بعد هم چکیده یا abstract بعد از خوندن چکیده میپرم سمت تصاویر، به محورها دقت میکنم و فکر میکنم ببینم تصویر چی داره میگه بعد از اینکه برای خودم فکر کردم اگه برام مبهم بود زیرنویس تصویر رو هم میخونم تا دید بهتری داشته باشم.

پس از تصاویر هم میرم به دنبال نتیجه‌گیری یا Conclusion و اونجا رو هم اسکن میکنم. تا اینجا میتونم تصمیم بگیرم مقاله‌ای که پیدا کردم آیا ارزشش رو داره بیشتر عمیق بشم یا در همین حد کافیه؟ اگه تصمیم گرفتم به کارم بیاد حالا میشنم از اول دوباره میخونم. پس تا اینجای کار فهمیدیم وقتی میگیم مقاله فلان رو خوندم به این معنی نیست که از عنوان تا مراجع همه رو کلمه به کلمه خونده باشیم، این کار خیلی کم پیش میاد و احتمالا مقاله های most related رو این طوری می‌خونیم. در این حالت میگن اصطلاحا مقاله رو با میکروسکوپ خوندنم :) از طرفی شما میتونی بگی فلان مقاله رو خوندم و منظورت این باشه که فقط عنوان و چکیده رو خوندی و خوب احتمالا خیلی به کارت نمیومده که ادامش ندادی.

چیزی که از Nancy Kanwisher یادگرفتم

ایشون تو یکی از کلاس‌هاشون این توصیه رو می‌کرد به بچه‌ها در خوندن مقاله، بگردین و دنبال جواب این سوال‌ها باشین به ترتیب

سوالی که این مقاله دنبالش بوده چی هست؟

اگه به درستی نوشته شده باشه باید جواب این سؤال رو توی چکیده پیدا کنید

چه جوابی برای اون سؤال پیدا کردن؟

باز هم اگه مقاله به درستی نوشته شده باشه باید بتونید جواب این سؤال رو در چکیده پیدا کنید

تفسیر جواب چی میشه یا به عبارت دیگه خب که چی؟

و باز هم اگه مقاله به درستی نوشته شده باشه باید بتونید جواب این سؤال رو در چکیده پیدا کنید

طراحی آزمایش شون چطور بوده یا دقیقا چیکار کردن؟

از اینجا دیگه ممکنه جواب این سؤال رو توی چکیده پیدا نکنید و لازم باشه برین بقیه مقاله رو بخونید البته دقت کنید حتی تو بعضی از مقاله‌ها هم ممکنه جواب سه سؤال اول رو تو چکیده پیدا نکنید

داده‌ها چطور تحلیل شدن؟

چرا سوالی که مقاله به دنبالش رفته مهمه؟

معمولا جواب این سؤال هم در قسمت introduction بیان شده

و سه نکته:

- نگین این که ۵ صفحه مقالس پس ۲۰ دقیقه بیشتر وقتمو نمیگیره، خیر، حتی برای خود محقق‌های باتجربه هم گاهی همون ۵ صفحه نیاز به صرف مثلا ۵ ساعت وقت هست.

- لازم نیست اون قسمت که میان دستگاه شون رو معرفی میکنن و شرایطش رو میگن بخونید یا حداقل جدی بخونید.

- از اینکه دانش تحلیل داده‌هاتون قوی نیست نترسین و نگید که من باید دقیقا صفر تا صد تحلیل داده‌ها رو بفهمم، نه، در حد اینکه مثلا با بعضی از تست‌های آماری مثل t-test یا ANOVA و یا با مفهوم Corrolation آشنا باشید کافیه بقیه تحلیل‌های مقاله رو صرفا اگه شهودی هم بهش داشته باشین کافیه. منظورم از شهود چیه؟ مثلا اگه گفته با SVM داده‌ها مو برچسب زدم، همینه که شما بدونید SVM یک روش طبقه‌بندی هست کافیه.

حالا با داشتن این چهارچوب در ذهن تون بهتر می‌تونید به دنبال خوندن مقاله برین

یک مثال

من هم اینجا یک نمونه اوردم از این مقاله. که سؤال مقاله رو قرمز کردم جوابی که پیدا کردن رو سبز کردم و تفسیر جواب رو نارنجی.

Abstract

Electroencephalography (EEG) continues to be the most popular method to investigate cognitive brain mechanisms in young children and infants. Most infant studies rely on the well-established and easy-to-use event-related brain potential (ERP). As a severe disadvantage, ERP computation requires a large number of repetitions of items from the same stimulus-category, compromising both ERPs’ reliability and their ecological validity in infant research. We here explore a way to investigate infant continuous EEG responses to an ongoing, engaging signal (i.e., “neural tracking”) by using multivariate temporal response functions (mTRFs), an approach increasingly popular in adult EEG research. N = 52 infants watched a 5-min episode of an age-appropriate cartoon while the EEG signal was recorded. We estimated and validated forward encoding models of auditory-envelope and visual-motion features. We compared individual and group-based (‘generic’) models of the infant brain response to comparison data from N = 28 adults. The generic model yielded clearly defined response functions for both, the auditory and the motion regressor. Importantly, this response profile was present also on an individual level, albeit with lower precision of the estimate but above-chance predictive accuracy for the modelled individual brain responses. In sum, we demonstrate that mTRFs are a feasible way of analyzing continuous EEG responses in infants. We observe robust response estimates both across and within participants from only 5 min of recorded EEG signal. Our results open ways for incorporating more engaging and more ecologically valid stimulus materials when probing cognitive, perceptual, and affective processes in infants and young children.

یک تمرین برای چطور مقاله خوندن

شما هم یک مقاله انتخاب کنید و سعی کنید دنبال جواب حداقل این سه سؤال(سؤال/جواب/تفسیر) در چکیده بگردین.

منبع(چند دقیقه آخر این کلاس +)

چند قالب لاتک مفید برای دانشجویان ارشد

۱- قالب تمرین درس‌های ارشد در فرمت مقاله

  • این قالب اساسش از IEEE گرفته شده و متناسب با فضای یک تمرین درسی تغییر پیدا کرده
  • بخش‌های مختلف فایل‌های مختلف داره و یکدونه فایل نیست
  • خیلی راحت فایل‌ها رو باز کنید و متن خودتونو با متن من جایگزین کنید
  • داشتن کد الگوریتم نویسی
  • داشتن کد جدول
  • داشتن کد فیگر چند فیگره
  • داشتن کد اینکه آخرین مطالب(منابع و قبل از آن) به صورت تراز شده به اتمام برسند

چند نکته غیر لاتکی راجع به تمرین:

  • با مفهوم رنگ و پالت‌های مختلف رنگ و ترکیب رنگ‌ها و نرم‌افزارهای انتخاب رنگ آشنا بشید(+)
  • فیگرهایی که از متلب یا پایتون خروجی میگیرین سعی کنید حال وکتور داشته باشه مثل فایل‌های svg نه jpg اینجوری کیفیت هرچقدر هم بزرگ نمایی کنید افت پیدا نمی‌کنه
  • سعی کنی اگه حتی زبان تون خوب نیست به انگلیسی بنویسید تا از الان هم آشنا بشید و هم خودتونو در این زمینه به چالش بکشید
  • متن تون رو می‌تونید با این نرم‌افزارهای آنلاین بررسی کنید(+) اگر از دوستان رجایی من هستید از گرامرلی پرمیوم دانشگاه غافل نباشید(+)
  • یادتون نره متن رو نمی‌تونید کپی پیست کنید اگر هم مجبور شدید سعی کنید خیلی کوتاه باشه حتما داخل دابل کوتیشن و رفرنس هم بدید

۲- سمینار کارشناسی ارشد

۳- گزارش سه‌ماهه کارشناسی ارشد

هر سه قالب رو می‌تونید با این لینک(+) دریافت کنید.

به‌روز رسانی ۱۷ امرداد ۰۰

Across subject Vs Within subject

وقتی میگیم مدلی رو تونستیم Within subject فیت کنیم یعنی، این مدل میتونه subject by subject داره خروجی‌ای میده که با داده‌ای که گرفتیم نزدیکه پس مثلا اگر از ۳۰ نفر داده جمع کرده باشیم، ما در این روش ۳۰ تا نمره داریم از مدل.

در حالت Across subject ما میام و خروجی تمام سابجکت ها رو مدل می‌کنیم و خب معمولا کار پیچیده تری داریم در این حالت. چون احتمالا داده مون بین subject ها تغییراتی هم داره. در این حالت هم اگه از اون ۳۰ نفره داده داشته باشیم حالا از مدل مون فقط یک نمره داریم.

Intra Vs Inter

این دو تا لغت رو تو متن‌های علمی زیاد میبینیم، و شاید از کنارشون بگذریم و همینجوری قبول کنیم معناشون رو و دقیق تفاوت بین دو پیشوند رو متوجه نشیم.

این‌ها پیشوند هستند به این معنی که به قبل از یک کلمه(معمولا اسم) اضافه میشن و معناشو عوض می‌کنند.

inter یک پیشونده که وقتی به اول یک کلمه اضافه بشه معنی بین دو گروه  و یا میان چند گروه رو میرسونه و مثال‌هاش اینا میشن:

international:

بین الملل، من خودم اینجور وقتا یک ابری از کلمات تو ذهنم میسازم و سعی میکنم باهشون بازی کنم مثلا ایناها رو هم در ترجمش برای خودم در نظر میگیرم، بین ملت‌ها، میان ملت ها مثلا دانشجو های اینترنشنال دانشجوهایی هستن که واسه یک ملت نیست و از بین ملت‌های مختلف تشکیل شدن.

internet:

میان شبکه‌ها بین شبکه‌ها، در حقیقت اینترنت به یک کشور، کمپانی و گروه خاصی از مردم تعلق نداره و وظیفش وصل کردن تمام مردم از همه جای دنیا بهم هست.

interstellar:

میان ستاره‌ای

intra هم یک پیشونده که وقتی به اول یک کله اضافه بشه معنی داخل یک گروه رو میرسونه

مثال هاشو باهم ببینیم

intranet:

شبکه‌ای که داخل یک گروه خاصی هست مثلا احتمالا دانشگاه یا شرکت شما برای خودش یک اینترانت داخلی داره که شما میتونید براحتی با سرورهای داخلی تون، برنامه ها، فضاهای ابری دانشگاه تون وصل بشین و هرچی که هست داخل دانشگاه خودتونه.

راحت ترین راه به خاطر سپردن شون هم همون دو کلمه اینترنت و اینترانت هست بنظرم. شما هم اگه جایی تو مقاله تون دیدن می‌تونید اینجا کامنت کنید تا این دو تا پیشوند رو عمیق‌تر یادبگیریم.

پلاگین ASR در EEGLAB

پلاگین ASR که مخفف Artifact Subspace Reconstruction  هست امروزا با نام clearn_rawdata هم شناخته میشه، در حقیقت چند تا روش کنار هم قرار گرفتن و تشکیلش دادن. در مجموعه پلاگین‌های EEGLab در دسته پلاگین های مربوط به Artifact قرار میگیره. تا به الان ۷۴۰۴ بار دانلود شده (رتبه ششم در کل پلاگین‌ها). در این مطلب ما آخرین نسخه  تا به زمان نوشتن این پست یعنی نسخه 2.3 شو توضیح میدیم. خبر خوب اینکه امروزا به صورت پیش فرض همراه با EEGlab نصب میشه و نیاز به نصبش نیست پس فقط کافیه EEGlab تو رو اگه آپدیت نیست آپدیت کنید.

آقای Christian Kothe اولین بار کدهای این برنامه رو توسعه دادن(تصویر راست). و الان بیشتر توسط Arnaud Delorme این کار ادامه پیدا میکنه(تصویر چپ).

اگه شما هم با سیگنال‌های مغزی در EEGLAB کار کرده باشین برای حذف نویز و تمیز کردن سیگنال احتمالا اسم این پلاگین رو شنیدین.

GIJMIJ

There are some words in scince which they are close in first look but diffenent in meaning in GIJMIJ( in memory of Peyman my BA room mate who always fu*k your mind with this trick) I want to write them and use google to find their one line definition and share it with you.

۱- متغیر چیست؟

به هر چیز قابل اندازه گیری میگن متغیر.

Variables can be objects, events, concepts, etc.—whatever is observable(+).

با یک اسم حرفی مشخص میکنیمش مثل x یا y. لزوما هم نباید مقدار توی x رو بدونیم. مثلا تعداد قندهای توی یک قندون، یا بیشترین دامنه یک سیگنال یا میانگین سن افراد یک جامعه.

اگه قبول داشته باشین حداقل به خودش باید دو مقدار رو بگیره مثلا درست یا غلط چون اگه بخواد به خودش یک مقدار بگیره خوب دیگه تغییر نمیکنه.

متغیرها رو میشه به دو دسته وابسته و مستقل دسته‌بندی کرد:

متغیرهای وابسته مقدارشون به یکسری فاکتور دیگه وابسته هست (تابع، عرض)

متغیرهای مستقل هیچ فاکتوری روی اونا تاثیر نمیگذاره. (متغیر، طول)

پس میشه گفت متغیر مستقل میتونه روی متغیر وابسته تاثیر بگذاره و متغیر وابسته نمیتونه روی متغیر مستقل تاثیر بگذاره.

مثلا توی معادله(ضابطه) y=sin(x) بنظر شما به ترتیب x و y چه نوع متغیرهایی هستن؟ اگه کلاه قرمزی رو دیده باشین شخصیت دیوی کلا همه چی رو چپه میگه مثلا بجای شبتون بخیر میگه شبتون به فنا، دیوی به این سوال این طوری جواب میده میگه x متغیر وابسته و y متغیر مستقل هست.

متغیر تصادفی: کمیتی هست که مقادیر خودش رو به احتمال دریافت می‌کنه.

مثلا میگیم X نتیجه پرتاب سکه هست داریم.

P(X=شیر بیاد) = 0.5

متغیر پیش‌بینی کننده: در تجزیه و تحلیل رگرسیون به متغیری مستقلی میگن که به پیش‌بینی متغیر وابسته کمک می‌کنه. مثلا تو همون مثلا y=sin(x) میشه گفت x یک متغییر پیش‌بینی کننده هست.

متغیر : Variable

متغیر وابسته: Dependent Variable

متغیر مستقل: Independent Variable

متغیر پیش‌بینی کننده: Predictor variable

ترتیب پیشنهادی من برای آشنا شدن شما با آمار در پژوهش:

0- روش علمی چیست؟

۱- متغیر چیست؟

۲- آنالیز چیست

۳- آزمون‌های آماری

۴- آزمون تی تست t-test

۵- تحلیل واریانس ANOVA