اخبار
دوشنبه، 06 آذر 1402
گوش‌ها و چشمان ما با هم حرف می‌زنند!

گوش‌ها و چشمان ما با هم حرف می‌زنند!

دانشمندان دانشگاه «دوک» در کشفی جالب دریافته‌اند که گوش‌های ما با چشمانمان و بالعکس صحبت می‌کنند. آنها می‌گویند ما در واقع می‌توانیم حرکت چشم‌ها و موقعیت هدفی را که چشم‌ها قرار است به آن نگاه کنند، فقط از روی صداهای ضبط شده با یک میکروفن تعبیه شده در کانال گوش تخمین بزنیم.

به گزارش ایسنا و به نقل از آی‌ای، در سال ۲۰۱۸ پژوهشگران دانشگاه «دوک» کشف کردند که وقتی چشم‌ها حرکت می‌کنند، گوش‌ها یک زمزمه کوچک و تقریبا نامحسوس تولید می‌کنند و برعکس.

اکنون دانشمندان با پیگیری آن مطالعه خود بررسی کردند که آیا تکانه‌های صوتی ضعیف تولید شده توسط اعضای بدن حاوی اطلاعات جامعی در مورد حرکات چشم است یا خیر.

تخمین موقعیت چشم از روی صداهای گوش

دکتر جنیفر گرو استاد بخش روانشناسی و علوم اعصاب و نوروبیولوژی در دانشگاه دوک و نویسنده ارشد این مطالعه گفت: شما می‌توانید در واقع حرکت چشم‌ها و موقعیت هدفی را که چشم‌ها قرار است به آن نگاه کنند، فقط از روی صداهای ضبط شده با یک میکروفون در کانال گوش تخمین بزنید.

گرو و همکارانش دریافتند که قادرند شکل موج صدای گوش را به سادگی با بررسی اینکه کسی به کجا نگاه می‌کند، تخمین بزنند.

گرو اکنون بر این باور است که این صداهای خاموش توسط حرکات چشم ایجاد می‌شود تا مغز را تشویق کند که یا ماهیچه‌های گوش میانی را که عموماً به تضعیف صداهای بلند کمک می‌کند یا سلول‌های مویی که به تقویت صداهای آرام کمک می‌کند، سفت کند.

پژوهشگران می‌گویند این صداها حتی ممکن است به تقویت ادراک افراد کمک کنند و این کشف جدید اکنون ممکن است منجر به بهبود آزمایشات بالینی برای شنوایی شود.

استفانی لوویچ دانشجوی فارغ التحصیل روانشناسی و عصب شناسی از دانشگاه دوک و یکی از نویسندگان اصلی این پژوهش می‌گوید: اگر هر قسمت از گوش قوانین خاصی را برای سیگنال پرده گوش ایجاد کند، می‌توان از آنها به عنوان یک نوع ابزار بالینی برای ارزیابی اینکه کدام قسمت از آناتومی گوش نادرست عمل می‌کند، استفاده کرد.

پژوهشگران برای کشف پیشرفت‌هایی که برای اولین بار در سال ۲۰۱۸ انجام شد، ۱۶ فرد با بینایی و شنوایی طبیعی را به آزمایشگاه گرو در دورهام دعوت کردند تا در یک آزمایش اولیه سنجش چشم شرکت کنند.

تجزیه و تحلیل سیگنال‌های صوتی

شرکت کنندگان به یک نقطه سبز رنگ روی صفحه رایانه نگاه کردند، سپس آن را با چشمان خود ردیابی کردند و در حالی که ناپدید می‌شد و دوباره در بالا، پایین، چپ یا راست ظاهر می‌شد. این آزمایش به پژوهشگران مجموعه متنوعی از سیگنال‌های صوتی را ارائه کرد که هنگام حرکت چشم‌ها به صورت افقی، عمودی یا مورب تولید می‌شد.

سپس محققان حرکات چشم و صداهای مربوط به گوش را ضبط کردند که به آنها اجازه داد رمز صداهای گوش را کشف کنند و تنها با تجزیه و تحلیل این مجموعه از زمزمه‌ها، مکان‌هایی را که افراد به آن نگاه می‌کردند، تخمین بزنند.

لوویچ گفت: از آنجایی که حرکت مورب چشم یک مؤلفه افقی و عمودی است، همکار من دیوید مورفی متوجه شد که می‌توانید این دو مؤلفه را بردارید و حدس بزنید که اگر آنها را کنار هم قرار دهید، چه می‌شوند یا برعکس، بررسی یک نوسان می‌تواند منجر به پیش‌بینی این شود که شخصی ۳۰ درجه به سمت چپ نگاه می‌کند.

مراحل بعدی این مطالعه شامل ارزیابی این است که آیا این صداهای گوش واقعاً بر ادراک تأثیر می‌گذارند یا خیر. این فرآیند مستلزم بررسی این است که آیا سیگنال‌های گوش می‌توانند به طور موثر یک وظیفه محلی‌سازی صدا را انجام دهند.

این مطالعه در مجله National Academy of Sciences منتشر شده است.

منبع: ایسنا