زبان اشاره
نویسه گردانی:
ZBAN ʼŠARH
زبان اشاره ( به انگلیسی : Sign language ) نطام قراردادی خاص منظم و پیشرفته زبانی است که برای انتقال معنا، به جایاشکال صوتی یا نوشتاری در زبان، از اشکل هائی از علایم دیداری (ترکیب همزمان شکل، جهت و حرکت دستان، بازوها یا بدن وحالات صورت برای بیان سلیس افکار گوینده) در یک کلمه اشاره استفاده میکند.[۱]. این نوع زبان اشاره می توان بصورت متنوع باشد. اما امروزه یک زبان اشاره بین المللی در سطح جهان قراارداد شده است که البته در هر منطقه عناصر بومی زبان نیز به آن افزوده می شود.
هرجا ارتباط ناشنوایان وجود دارد، زبانهای اشاره بوجود میآیند. گرامرهای پیچیده ی زبان اشاره به طور قابل ملاحظهای با گرامرهای زبانهای گفتاری تفاوت دارند و درحوزه ی فرهنگی ناشنوایان میباشند. برخی از زبانهای اشاره بعضی حرکات رااز شناخت کلی کسب کردهاند، در حالیکه بقیه زبانها چنین پایهای ندارند.
محتویات [نمایش]
تاریخ زبان اشاره [ویرایش]
جان پابلو بونت، (تبدیل حروف و هنر برای تعلیم ناشنوایان به صحبت کردن)(مادرید سال۱۶۲۰). یکی از سوابق نوشتاری زبان اشاره در قرن پنجم قبل از میلاد مسیح، در کراتیلوس افلاتون یافت شد. جایی که سقراط گفت:"اگر ما صدا یا زبان نداشتیم، و قصد بیان چیزهایی را به دیگران داشتیم، آیا سعی نمیکردیم با حرکات دستهایمان، سر و بقیه اعضای بدن اشاراتی ایجاد کنیم، درست مثل افراد گنگ در حال حاضر؟ [۳] به نظر میرسد گروههایی از ناشنوایان در طول تاریخ از زبانهای اشاره استفاده میکردند.
در دومین قرن یهودیه، مقاله ثبت شده ی گیتین[۴] در میشنا تصریح کرد که به منظور معاملات تجاری "یک کرولال میتواند گفتگو را بوسیله ی ایما و اشاره کنترل کند.بن بثیرا میگوید که فرد ناشنوا ممکن است این کار را بوسیله ی حرکات لب انجام دهد.این نحوه تدریس در جامعه ی یهودی مشهور بود، جایی که مطالعه ی میشنا از دوران کودکی اجباری بود.
در سال ۱۶۲۰، جان پابلو بونت(تبدیل حروف و هنر برای تعلیم ناشنوایان به صحبت کردن) را در مادرید منتشر کرد. این کار اولین مقاله ی مصوتها به نظر میآید، تنظیم روش تعلیم شفاهی برای ناشنوایان بوسیله استفاده از اشارات به شکل الفبای دستی به منظور ارتقاء ارتباط ناشنوایان.با استفاده از زبان اشارات بونت چارلز میشل دلپی الفبای دستی اش را در قرن هجدهم منتشر کرد. الفبایی که اساسا بدون تغییر در فرانسه و امریکای شمالی تا حال حاضر به جا ماندهاست.
زبان اشاره اغلب در مدارس سراسری برای دانش آموزان ناشنوا رشد یافت. در سال ۱۷۵۵، ابی اولین مدرسه برای بچههای ناشنوا را در پاریس تاسیس کرد لورنت کلرک معروفترین فارغ التحصیل آنجا بود. کلرک با توماس هاپکین برای تاسیس مدرسهای امریکایی برای ناشنوایان در هارتفورت، در سال ۱۸۱۷ به ایالات متحده امریکا رفتند.{۵} پسر گالودت ادوارد منیر مدرسهای برای ناشنوایان در سال ۱۸۵۷ در واشنگتن تاسیس کرد که در سال ۱۸۶۴ کالج ملی ناشنوایان شد.در حال حاضر دانشگاه گالودت نامیده میشود، که هنوز تنها دانشگاه علوم انسانی برای افراد ناشنوا در دنیاست.
به طور کلی، هر زبان گفتاری یک نوع زبان اشاره دارد به همان اندازه که هر جمعیت زبان شناختی شامل افرادی ناشنوا خواهد بود که زبان اشاره تولید خواهند کرد. در همین راستا، تاثیرات جغرافیایی و فرهنگی جمعیتها را جدا خواهد کرد و منجر به نسلی با زبانهای گفتاری متفاوت و ناهمگون میشود، همین تاثیرات بر روی زبانهای اشاره اجرا شده وبنابراین آنها به نگه داری همانندیشان طی زمانی سخت، و همان مکانهای تحت تاثیر قرار گرفته شده مثل زبانهای گفتار محلی، گرایش پیدا میکنند.این مساله اگرچه زبانهای اشاره هیچ ارتباطی با زبانهای گفتاری سرزمینهایی که در آن بوجود آمدهاند ندارند اتفاق میافتد. استثناهای قابل توجهی دراین روال وجود دارند، اگرچه، همانطور که بعضی مناطق جغرافیایی از یک زبان گفتاری به طور مشترک استفاده میکنند، زبانهای اشاره ی متعدد، غیر وابسته دارند.تفاوتها در زبان اشاره ملی معمولا به موقعیت جغرافیایی مدارس شبانه روزی ناشنوایان بستگی دارد.
اشاره بین المللی در گذشته به جستونو معروف بود.اساسا در مسابقات بین المللی ناشنوایان از جمله دف لمپیک و جلسات فدراسیون جهانی ناشنوایان استفاده میشود.مطالعات اخیر اظهار داشت که درحالیکه اشاره بین المللی نوعی از زبان آمیزهای انگلیسی و چینی ست، نتیجه گرفتند که این زبان پیچیده تر از انگلیسی محاوره رایج است و در واقع بیشتر شبیه زبان اشارهاست. {۶} زبان شناسی اشاره
در شرایطهای زبان شناختی، زبانهای اشاره مانند هر زبان شفاهی علی رغم درک اشتباه رایجی که آنها زبانهای واقعی نیستند، غنی و پیچیده هستند.زبان شناسان حرفهای زبانهای اشاره ی زیادی را مطالعه کردند و دریافتند که آنها همه ی اجزای زبان شناختی را دارا هستند که مانند زبانهای واقعی نیاز به طبقه بندی شدن دارند.{۷}
زبانهای اشاره تقلیدی نیستند- به مفهوم دیگر، اشارات قراردادی هستند، اغلب اختیاریند و الزاما ارتباط عینی با کلمه مرجعشان ندارند، بیشتر زبانهای گفتاری نام آوا نیستند.در حالیکه تصویرگری در زبانهای اشاره سازمان یافته تر و گسترده تر از زبانهای گفتاریست، تفاوت قطعی نیست.{۸} و نه تصویر عینی از یک زبان بیانی هستند. گرامرهای پیچیده ی زبان خود را دارا هستند، و قابل استفاده برای بحث کردن در مورد هر موضوعی هستند، از ساده و غیر انتزاعی گرفته تا پیچیده و انتزاعی زبانهای اشاره مثل زبانهای گفتاری از قسمتهای ابتدایی و بی معنی به قسمتهای با معنی سازماندهی میشوند.
عناصر یک اشاره عبارتند از: تکان دست ها(یا شکل دستها)، جهت شناسی(یا جهت کف دست)، موقعیت(یا محل تلفظ) حرکت وعلامتهای غیردستی(یا حالت صورت) که در اکرونیم HOLME خلاصه شدهاند.خصوصیات زبانشناسی معمول در زبانهای اشاره ناشنوایان دسته بندی گستردهای دارند، درجه بالایی از صرف و تفسیر موضوعی نحو. بسیاری از ویژگیهای زبانشناسی منحصربه فرد از توانایی زبانهای اشاره برای تولید معنی در قسمتهای مختلف میدان دید به طور همزمان ظاهر میشوند. برای مثال، گیرنده یک پیام اشاره میتواند معانی را که توسط دستها، حالت چهره و حالت بدن در یک لحظه بوجود میایند، بخواند. این یک مقایسهاست با زبانهای شفاهی که در ان صداهایی که کلمات را میسازند، اغلب متوالی اند.
روابط زبانهای اشاره با زبانهای شفاهی [ویرایش]
یک تصور اشتباه عمومی این است که زبانهای اشاره به طریقی وابسته به زبانهای شفاهی هستند، بدین صورت که انها زبانهای شفاهی هستند که توسط حرکات دستها تلفظ میشوند یا اینکه انها توسط افراد شنوا اختراع شده بودند.معلمان شنوا در مدارس ناشنوایان نظیر توماس هابکینز گالودت، اغلب بطور ناصحیح به عنوان مخترعین زبان اشاره شناخته شدهاند.
الفبای دستی (هجی کردن انگشتی) در زبانهای اشاره، اغلب برای اسامی خاص و تکنیکی یا کلمات تخصصی گرفته شده از زبانهای گفتاری استفاده میشوند.استفاده از هجی انگشتی به عنوان شاهد گرفته شده بود که زبانهای اشاره شکلهای ساده شده ی زبانهای شفاهی هستند، ولی در واقع آن یک ابزار منحصربه فرد درمیان بقیهاست. هجی انگشتی گاهی میتواند به عنوان منبعی از اشارات جدید باشد که علامتهای لغوی نامیده میشوند.
در مجموع، زبانهای اشاره ناشنوایان از زبانهای شفاهی مستقل هستند و راههای توسعه خود را دنبال میکنند. برای مثال، زبان اشاره انگلیسی و زبان اشاره آمریکایی کاملا متفاوتند و نامفهوم، در حالیکه مردم شنوای انگلیس و آمریکا در زبان شفاهی مشترکند.دریک منطقه یکسان جغرافیایی گرامر زبانهای اشاره الزاما با زبانهای گویا شباهتی ندارد، درواقع در نحو، ASL بیشتر با ژاپنی گفتاری سهیم است تا با انگلیسی. [۹]
همینطور کشورهائی که سر تاسر تنها از یک زبان شفاهی استفاده میکنند، ممکن است دو یا چند زبان اشاره داشته باشند، در حالیکه منطقهای که بیشتر از یک زبان شفاهی را شامل میشود ممکن است تنها از یک زبان اشاره استفاده کند. آفریقای جنوبی که ۱۱ زبان شفاهی رسمی و نزدیک به همین تعداد زبانهای شفاهی دیگر دارد مثال خوبی برای این مطلب است. این کشور فقط یک زبان اشاره دارد اما به دو شکل که بدلیل قدمت دو موسسه آموزشی اصلی در مناطق مختلف جغرافیائی یک کشوراست که به ناشنوایان خدمت میکنند.
در سال ۱۹۷۲ آرسولابلوکی متخصص اعصاب و روانشناس از چندین نفر آمرریکائی و انگلیسی که به زبان اشاره مسلط بودند خواست که داستانی به انگلیسی بگویند، سپس از زبان اشاره آمریکائی شروع کرد و به عکس.نتایج بطور میانگین ۷/۴ کلمه در ثانیه و۳/۲ علامت در ثانیه را نشان دادند. با اینکه فقط ۱۲۲ علامت و ۲۱۰ کلمه برای این داستان احتیاج بود اما هر دو نوع داستان تقریبا در یک زمان به اتمام رسید.سبس آرسولا آزمایش کرد تا ببیند که آیا ASL اطلاعات سرنوشت ساز را حذف میکند یا خیر.به یک شخص دو زبانه داستانی داده شد تا به ASL ترجمه کند و به دومی که به دو زبان اشاره مسلط بود وعلائم را دید وآنها را به انگلیسی ترجمه کرد. اطلاعات بدست آمده نشان داد که داستان به زبان اشاره با داستان اصلی یکسان بود. این مطالعه اگرچه به این حوزه محدود شد ولی پیشنهاد میکند که علائم ASL اطلاعات بیشتری از زبان گویای انگلیسی دارند. ۵/۱ بیشنهاد برای زبان اشاره در ثانیه در مقایسه با ۳/۱ پیشنهاد برای صحبت انگلیسی. [۱۰]
زبانهای اشاره از ویژگیهای منحصربه فرد شیوه دیداری استفاده میکنند.زبان شفاهی تک بعدی است؛ دریک زمان تنها یک صدا میتواند تولید یا دریافت شود. درحالیکه زبان اشاره بصری است؛ بنابراین یک صحنه کامل در یک زمان گرفته میشود. اطلاعات میتواند در چندین کانال بار شود و بطور همزمان نشان داده شود. به عنوان مثال، یک نفر میتواند این عبارت را به انگلیسی بگوید،"من اینجا رانندگی کردم." برای افزودن اطلاعات در مورد رانندگی یک نفر باید عبارت بلندتری بسازد یا حتی عبارت دیگری اضافه کند، مانند: "من اینجا درطول یک جاده پیچ در پیچ رانندگی کردم،" یا "من اینجا رانندگی کردم.رانندگی خوبی بود." بنابراین در زبان اشاره آمریکایی، اطلاعات درمورد شکل جاده یا طبیعت مسرت بخش رانندگی میتواند همزمان با فعل رانندگی، توسط انعطاف حرکت دست یا با بهره گیری از علامتهای غیردستی مانند حالت بدن یا چهره نقل شود، در همان زمانی که فعل رانندگی نشان داده میشود. بنابراین، با اینکه در انگلیسی، عبارت "من اینجا رانندگی کردم وخیلی خوشایند بود" از "من اینجا رانندگی کردم" طولانی تر است، اما در زبان اشاره آمریکایی هر دو ممکن است از نظر طول یکی باشند.
طبقه بندی زبانهای اشاره [ویرایش]
اگرچه زبانهای اشاره ناشنوایان به طور طبیعی در جوامع ناشنوایان کنار یا میان زبانهای گفتاری بوجود آمدهاند، اما آنها هیچ ارتباطی با زبانهای گفتاری ندارند و دارای ساختارهای مختلف گرامری هستند. گروهی از "زبان های" اشاره به عنوان زبانهای کدبندی شده دستی شناخته شدهاند که به عنوان روشهای اشاره زبانهای گفتاری بیشتر قابل فهم هستند، و بنابراین به خانوادههای زبان از زبانهای گفتاری مربوطه وابسته هستند.برای مثال تعداد زیادی رمزهای علامتی انگلیسی وجود دارند.
تحقیق زبانشناسی تاریخی بسیار اندکی برروی زبانهای اشاره صورت گرفتهاست، و همینطور تلاشهای کمی برای تعیین کردن روابط ژنتیکی میان زبانهای اشاره، و یک مقایسه ساده بین دادههای واژگانی و بعضی مباحث درمورد اینکه آیا زبانهای اشاره خاص، گویشهایی از یک زبان هستند یا زبانهایی از یک خانواده. زبانها ممکن است با مهاجرت، تأسیس مدارس ناشنوایان (اغلب بوسیله مربیان فرهیخته خارجی)، و یا به دلیل مقررات سیاسی گسترش بیابند.
ارتباط زبانی رایج است، مشخص کردن طبقه بندیهای خانوادگی دشوار- اغلب نامشخص است که شباهت واژهای به علت قرض گرفتن است یا یک زبان اصلی رایج.بین زبانهای اشاره، زبانهای اشاره و گفتاری(علامت ارتباط)، وبین زبانهای اشاره و سیستمهای ژستی که توسط انجمن مرزی ارتباط بیش میآید.به نظر مولفی زبان اشاره آداموروب ممکن است با اصطلاحات مخصوص تجاری حرکتی که در بازار سراسر آفریقای غربی استفاده میشود، و همچنین در لغات و ویژگیهای مکانی که شامل علم عروضی وآواشناسی است، مربوط باشد. [۱۱] BSL_، Auslan وNZSL معمولا وابسته به خانواده زبانی معروف به BANZSL هستند در نظر گرفته میشوند. زبان اشاره دریایی و زبان اشاره جنوب افریقایی همچنین بهBSL مربوط میشوند. [۱۲]
زبان اشاره ژاپنی، تایوانی و کرهای به اعضای خانواده زبان اشاره ژاپنی تدریس میشوند.خانواده زبان اشاره فرانسه.تعدادی از زبانهای اشاره از زبان اشاره فرانسه(LSF )بوجود آمدهاند، یا نتیجه ی ارتباط زبان میان زبانهای اشاره ی جامعه ی محلی و LSF.اینها شامل:زبان اشاره فرانسوی، ایتالیایی، کبکی، امریکایی، ایرلندی، روسی، هلندی، فلمینگی، بلزیکی-فرانسوی، اسپانیایی، مکزیکی، برزیلی(LIBRAS)، کاتالانی و دیگر زبانهای اشاره.
یک زیرمجموعه از این گروه شامل زبانهایی است که بوسیله زبان اشاره امریکایی به شدت تحت تأثیر قرار گرفته بود یا انواع منطقهای ASL است. زبان اشاره بولیوی بعضی اوقات به عنوان یک گویش ASL مطرح است. زبان اشاره تایلندی یک زبان ادغام شده نشئت گرفته از ASL، زبان اشاره محلی بانکوک و چیانگهای و شاید قسمتی از خانواده ASL در نظر گرفته شده دیگر زبانهای احتمالی بوسله ASL تحت تأثیر قرار گرفتهاند که شامل زبان اشاره اوگاندایی، زبان اشاره کنیایی، زبان اشاره فیلیپینی و زبان اشاره مالزیایی است. شواهد داستان گونه پیشنهاد میدهد که زبان اشاره فنلاندی و زبان اشاره سوئدی و زبان اشاره نروژ به خانواده زبان اشاره اسکاندیناوی تعلق دارد.
زبان اشاره ایسلندی به عنوان زبان متمایل به زبان اشاره دانمارکی شناخته شدهاست اگرچه تفاوتهای شغلی در لغات در قرن توسعه ایجاد شده بود.
زبان اشاره اسرائیلی بوسیله زبان اشاره آلمانی تحت تأثیر قرار گرفتهاست.براساس گزارش SILو زبان اشاره روسیه، ملداوی و اوکراین درجه بالایی از واژگان مشترک را به اشتراک گذاشته و شاید گویش یک زبان یا زبانهای وابسته متمایز است. گزارش یکسانی یک دسته از زبانها اشارهای که در مرکز آن زبان چک، زبان اشاره مجارستان و زبان اشاره اسلواکی پیشنهاد داد. این گروه همچنین ممکن است شامل زبانهای اشاره رومانیایی، بلغاری و زبان اشاره لهستانی باشد.
زبانهای متعددی شناخته شده زبان اشاره نیکاراگوئی و زبان اشاره السعید عربها بیابانی و زبان اشاره جزیره پرویدنس است. زبان اشاره اردن، لبنان، سوریه، فلسطین و عراق (و احتمالاً عربستان صعودی)ممکن است بخشی محرک یا ممکن است یک لهجه از زبان اشاره عرب شرقی باشد.
طبقه بندی جامع که در این خصوص است بر این است که لیست ساده زبانها که به تاریخ ۱۹۹۱ است برمی گردد.[۱۳]طبقه بندی براساس۶۹زبان اشارهای چاپ Ethnologue سال ۱۹۸۸ است که در زبان کنفرانس ۱۹۸۸ در زمینه زبانهای اشاره در مونترال شناخته شده بود و دور از کنفرانس نویسنده «زبان اضافی را اضافه کرد».[۱۵]
طبقه بندی زبانهای اشارهای [ویرایش]
در طبقه بندی او بین زبانهای اشاره اصلی و مشتق شده (فرعی) [۱۶] و قطعاً بین زبانهای قابل تشخیص به عنوان زبان اشاره و زبانهای که تصور میشد ترکیبی باشد و حد تمایز قائل شد، [۱۷] نمونه اولیه زبانهای کلاس A شامل تمام آن زبانهای اشارهاست که ظاهراً نمیتوان از زبانهای دیگر نشئت گرفته باشند. نمونه اولیه زبانهای R زبانهایی است که توسط یک فرایند بر روی زبان نمونه A مدل شده. کلاسها LSF , GSL, DGS , BSL و زبانها LSL اشتقاقی زبانهای جدید مشتق شده از نمونه اولیه زبانهاست که بوسیله فرایندهای زبانیRelexificaiton , Creolization نمایان نمود. [۱۸] Creolization غنی شده در زبانهای اشاره حالتی دیده شدهاست در مقایسه با کاهش در زبانهای آوازی. [۱۹]
گونه شناسی زبانهای اشارهای [ویرایش]
گونه شناسی زبانی به ادوارد ساپیر برمیگردد. براساس ساختار کلمه و تمایزهای مراحل ساخت شناسی از قبیل چسبانندهای، پیوندی انحناء صرف فعل، چند ترکیبی، مشارکتی ومجزا است.
زبان اشارهای براساس احکام لغات مختلف در هر زبان مختلف تنوع دارد، بطور مثال OGS فاعل مفعول فعل است در حالیکه ASL فاعل فعل مفعول است. تناظر زبانهای مجاور غیرمحتمل است.
در صحبت کردن به صورت ایما و اشاره، شکل لغت یک عامل ضروری است. شکل قانونی کلمه از جفت کردن سیستماتیک دودویی، دو ویژگی است. بطور مثال هجابندی (دو یا چند) و واژک (و یا چند).برنتاری[۲۰][۲۱] زبانهای اشاره بوسیله ویژگی تک هجایی یا چند هجایی بصورت یک گروه کلی مشخص کردهاست. این بدین معنی است که یک هجا چندین واژک را بیان میکند. مثل فاعل و مفعول یک فعل که جهت حرکت یک فعل را مشخص میکند. از این رو تولید یک علامت از تولید یک لغت وقت بیشتری میگیرد. اما در مقایسه جمله به جمله زبان اشارهای و گفتمانی تقریباً سرعت یکسانی دارند. [۲۲]
فرم مکتوب زبانهای اشارهای [ویرایش]
زبان اشاره با زبان گفتاری ارتباطش با نوشتن متفاوت است. سیستمهای صورت شناسی زبان گفتاری اصولاً ترتیبی است. که بسیاری از صورت شناسی تکرار یکی پس از دیگری تولید شده اگرچه زبانها دید غیرترتیبی مثل نفی دارند. در نتیجه سیستمهای نوشتاری صورت شناسی سنتی همجنس ترتیبی است. با بهترین تفکیک کنندهها برای نمودهای غیرترتیبی مثل تن و تنش.
زبانهای اشاره بیشترین مولفه غیرترتیبی را دارند با بسیاری از اصوات همزمان تولید شده بطور مثال نشانهها ممکن است شامل انگشت، دست و پا حرکت همزمان صورت باشد یا حرکت دو دست در جهات مختلف، سیستمهای نوشتن سنتی برای این سطح پیچیدگی طراحی نشدهاند.اندکی به خاطر این زبانهای اشاره اغلب مکتوب نیستند. در تعداد اندکی از کشورها با آموزش خوب فرصتها برای کر و لالها مهیاست. بسیاری از خوانندههای کر و لال میتوانند زبان گفتاری کشورشان را در سطح مناسبی به عنوان «باسواد کارآمد» در نظر گرفته شوند، بخوانند و بنویسند. با این وجود در بسیاری از کشورها، آموزش کر و لالها خیلی ضعیف یا خیلی محدود است. در نتیجه بسیاری از مردم کر و لال سواد کم یا بیسواد در زبان رایج کشورشان هستند.
منابع [ویرایش]
↑ ([با دست]، زبان بدن)
ویکیپدیای انگلیسی
۱. ^ Stokoe, William C. (۱۹۷۶). Dictionary of American Sign Language on Linguistic Principles. Linstok Press. ISBN 0-932130-01-1.
۲. ^ Stokoe, William C. (۱۹۶۰). Sign language structure: An outline of the visual communication systems of the American deaf. Studies in linguistics: Occasional papers (No. ۸). Buffalo: Dept. of Anthropology and Linguistics, University of Buffalo.
۳. ^ Bauman, Dirksen (۲۰۰۸). Open your eyes: Deaf studies talking. University of Minnesota Press. ISBN 0816646198.
۴. ^ Babylonian Talmud Gittin folio 59a
5. ^ Canlas (۲۰۰۶).
۶. ^ Cf. Supalla, Ted & Rebecca Webb (۱۹۹۵). "The grammar of international sign: A new look at pidgin languages." In: Emmorey, Karen & Judy Reilly (eds). Language, gesture, and space. (International Conference on Theoretical Issues in Sign Language Research) Hillsdale, N.J.: Erlbaum, pp. ۳۳۳–۳۵۲; McKee R. & J. Napier J. (۲۰۰۲). "Interpreting in International Sign Pidgin: an analysis." Journal of Sign Language Linguistics ۵(۱).
۷. ^ This latter conception is no longer disputed as can be seen from the fact that sign language experts are mostly linguists.
۸. ^ Johnston (۱۹۸۹).
۹. ^ Nakamura (۱۹۹۵).
۱۰. ^ Mind at Light Speed, David D. Nolte, pages ۱۰۵-۶
۱۱. ^ Frishberg (۱۹۸۷). See also the classification of Wittmann (۱۹۹۱) for the general issue of jargons as prototypes in sign language glottogenesis.
۱۲. ^ See Gordon (۲۰۰۸), under nsr [۱] and sfs [۲].
۱۳. ^ Henri Wittmann (۱۹۹۱). The classification is said to be typological satisfying Jakobson's condition of genetic interpretability.
۱۴. ^ Wittmann's classification went into Ethnologue's database where it is still cited.[۳] The subsequent edition of Ethnologue in 1992 went up to 81 sign languages and ultimately adopting Wittmann's distinction between primary and alternates sign langues (going back ultimately to Stokoe 1974) and, more vaguely, some other of his traits. The 2008 version of the 15th edition of Ethnologue is now up to 124 sign languages.
۱۵. ^ To the extent that Wittmann's language codes are different from SIL codes, the latter are given within parentheses
16. ^ Wittmann adds that this taxonmic criteron is not really applicable with any scientific rigor: Alternative sign languages, to the extent that they are full-fledged natural languages (and therefore included in his survey), are mostly used by the deaf as well; and some primary sign languages (such as ASL(ase) and ADS) have acquired alternative usages.
۱۷. ^ Wittmann includes in this class ASW (composed of at least 14 different languages), MOS(mzg), HST (distinct from the LSQ ASL(ase)-derived TSQ) and SQS. In the meantime since 1991, HST has been recognized as being composed of BFK, CSD, HAB, HAF, HOS, LSO.
۱۸. ^ Wittmann's references on the subject, besides his own work on creolization and relexification in "vocally signed" languages, include papers such as Fischer (۱۹۷۴, ۱۹۷۸), Deuchar (۱۹۸۷) and Judy Kegl's pre-۱۹۹۱ work on creolization in sign languages.
۱۹. ^ Wittmann's explanation for this is that models of acquisition and transmission for sign languages are not based on any typical parent-child relation model of direct transmission which is inducive to variation and change to a greater extent. He notes that sign creoles are much more common than vocal creoles and that we can't know on how many successive creolizations prototype-A sign languages are based prior to their historicity.
۲۰. ^ Brentari, Diane (۱۹۹۸): A prosodic model of sign language phonology. Cambridge, MA: MIT Press; cited in Hohenberger (۲۰۰۷) on p. ۳۴۹
۲۱. ^ Brentari, Diane (۲۰۰۲): Modality differences in sign language phonology and morphophonemics. In: Richard P. Meier, kearsy Cormier, and David Quinto-Pozocs (eds.), ۳۵-۳۶; cited in Hohenberger (۲۰۰۷) on p. ۳۴۹
۲۲. ^ Hohenberger, Annette: The possible range of variation between sign languages: Universal Grammar, modality, and typological aspects; in: Perniss, Pamela M., Roland Pfau and Markus Steinbach (Eds.): Visible Variation. Comparative Studies on Sign Language Structure; (Reihe Trends in Linguistics. Studies and Monographs [TiLSM] ۱۸۸). Berlin, New York: Mouton de Gruyter ۲۰۰۷
در ویکیانبار پروندههایی دربارهٔ زبان اشاره موجود است.
ردههای صفحه: زبان
از ویکی پدیا
قس عربی
http://catalogue.bl.uk/F/M6248AQ73AYKR4G9UAE22EBJP6CQNF13BJ97J3EGDIABYFK3F1-52369?func=file&file_name=find-d
قس انگلیسی
A sign language (also signed language) is a language which, instead of acoustically conveyed sound patterns, uses manual communication and body language to convey meaning. This can involve simultaneously combining hand shapes, orientation and movement of the hands, arms or body, and facial expressions to fluidly express a speaker's thoughts.
Wherever communities of deaf people exist, sign languages develop. While they utilize space for grammar in a way that spoken languages do not, sign languages exhibit the same linguistic properties and use the same language faculty as do spoken languages.[1][2] Hundreds of sign languages are in use around the world and are at the cores of local deaf cultures. Some sign languages have obtained some form of legal recognition, while others have no status at all.
Contents [show]
[edit]History
Juan Pablo Bonet, Reducción de las letras y arte para enseñar a hablar a los mudos (‘Reduction of letters and art for teaching mute people to speak’) (Madrid, 1620).
One of the earliest written records of a signed language occurred in the fifth century BC, in Plato's Cratylus, where Socrates says: "If we hadn't a voice or a tongue, and wanted to express things to one another, wouldn't we try to make signs by moving our hands, head, and the rest of our body, just as dumb people do at present?"[3] It seems that groups of deaf people have used signed languages throughout history.
In 2nd-century Judea, the recording in the Mishnah tractate Gittin[4] stipulated that for the purpose of commercial transactions "A deaf-mute can hold a conversation by means of gestures. Ben Bathyra says that he may also do so by means of lip-motions." This teaching was well known in Jewish society where study of Mishnah was compulsory from childhood.
In 1620, Juan Pablo Bonet published Reducción de las letras y arte para enseñar a hablar a los mudos (‘Reduction of letters and art for teaching mute people to speak’) in Madrid.[5] It is considered the first modern treatise of Phonetics and Logopedia, setting out a method of oral education for the deaf people by means of the use of manual signs, in form of a manual alphabet to improve the communication of the mute or deaf people.
From the language of signs of Bonet, Charles-Michel de l'Épée published his manual alphabet in the 18th century, which has survived basically unchanged in France and North America until the present time.
Sign languages have often evolved around schools for deaf students. In 1755, Abbé de l'Épée founded the first school for deaf children in Paris; Laurent Clerc was arguably its most famous graduate. Clerc went to the United States with Thomas Hopkins Gallaudet to found the American School for the Deaf in Hartford, Connecticut, in 1817.[6] Gallaudet's son, Edward Miner Gallaudet founded a school for the deaf in 1857 in Washington, D.C., which in 1864 became the National Deaf-Mute College. Now called Gallaudet University, it is still the only liberal arts university for deaf people in the world.
Sign languages generally do not have any linguistic relation to the spoken languages of the lands in which they arise. The correlation between signed and spoken languages is complex and varies depending on the country more than the spoken language. For example, the US, Canada, UK, Australia and New Zealand all have English as their dominant language, but American Sign Language (ASL), used in the US and most parts of Canada, is derived from French Sign Language whereas the other three countries sign dialects of British, Australian and New Zealand Sign Language.[7] Similarly, the sign languages of Spain and Mexico are very different, despite Spanish being the national language in each country,[8] and the sign language used in Bolivia is based on ASL rather than any sign language that is used in a Spanish-speaking country.[9] Variations also arise within a 'national' sign language which don't necessarily correspond to dialect differences in the national spoken language; rather, they can usually be correlated to the geographic location of residential schools for the deaf.[10][11]
International Sign, formerly known as Gestuno, is used mainly at international Deaf events such as the Deaflympics and meetings of the World Federation of the Deaf. Recent studies claim that while International Sign is a kind of a pidgin, they conclude that it is more complex than a typical pidgin and indeed is more like a full signed language.[12]
[edit]Linguistics of sign
In linguistic terms, sign languages are as rich and complex as any oral language, despite the common misconception that they are not "real languages". Professional linguists have studied many sign languages and found that they exhibit the fundamental properties that exist in all languages.[13][14]
Sign languages are not mime – in other words, signs are conventional, often arbitrary and do not necessarily have a visual relationship to their referent, much as most spoken language is not onomatopoeic. While iconicity is more systematic and widespread in sign languages than in spoken ones, the difference is not categorical.[15] The visual modality allows the human preference for close connections between form and meaning, present but suppressed in spoken languages, to be more fully expressed.[16] This does not mean that signed languages are a visual rendition of an oral language. They have complex grammars of their own, and can be used to discuss any topic, from the simple and concrete to the lofty and abstract.
Sign languages, like oral languages, organize elementary, meaningless units (phonemes; once called cheremes in the case of sign languages) into meaningful semantic units. Like in spoken languages, these meaningless units are represented as (combinations of) features, although often also crude distinctions are made in terms of Handshape (or Handform), Orientation, Location (or Place of Articulation), Movement, and Non-manual expression.
Common linguistic features of many sign languages are the occurrence of classifiers, a high degree of inflection, and a topic-comment syntax. More than spoken languages, sign languages can convey meaning by simultaneous means, e.g. by the use of space, two manual articulators, and the signer's face and body. Though there is still much discussion on the topic of iconicity in Signed Languages, classifiers are generally perceived to be highly iconic, as these complex constructions "function as predicates that may express any or all of the following: motion, position, stative-descriptive, or handling information"[17] It needs to be noted that the term classifier is not used by every one working on these constructions. Across the field of sign language linguistics the same constructions are also referred with other terms.
[edit]Sign languages' relationships with oral languages
A common misconception is that sign languages are somehow dependent on oral languages, that is, that they are oral language spelled out in gesture, or that they were invented by hearing people. Hearing teachers in deaf schools, such as Thomas Hopkins Gallaudet, are often incorrectly referred to as “inventors” of sign language.
Although not part of sign languages, elements from the Manual alphabets (fingerspelling) may be used in signed communication, mostly for proper names and concepts for which no sign is available at that moment. Elements from the manual alphabet can sometimes be a source of new signs (e.g. initialized signs, in which the shape of the hand represents the first letter of the word for the sign).
On the whole, sign languages are independent of oral languages and follow their own paths of development. For example, British Sign Language and American Sign Language are quite different and mutually unintelligible, even though the hearing people of Britain and America share the same oral language. The grammars of sign languages do usually not resemble that of spoken languages used in the same geographical area; in fact, in terms of syntax, ASL shares more with spoken Japanese than it does with English.[18]
Similarly, countries which use a single oral language throughout may have two or more sign languages; whereas an area that contains more than one oral language might use only one sign language. South Africa, which has 11 official oral languages and a similar number of other widely used oral languages is a good example of this. It has only one sign language with two variants due to its history of having two major educational institutions for the deaf which have served different geographic areas of the country.
[edit]Spatial grammar and simultaneity
Sign languages exploit the unique features of the visual medium (sight), but may also exploit tactile features (tactile sign languages). Oral language is by and large linear; only one sound can be made or received at a time. Sign language, on the other hand, is visual and, hence, can use simultaneous expression, although this is limited articulatorily and linguistically. Visual perception allows processing of simultaneous information.
One way in which many signed languages take advantage of the spatial nature of the language is through the use of classifiers. Classifiers allow a signer to spatially show a referent's type, size, shape, movement, or extent.
The large focus on the possibility of simultaneity in signed languages in contrast to spoken languages is sometimes exaggerated, though. The use of two manual articulators is subject to motor constraints, resulting in a large extent of symmetry[19] or signing with one articulator only.
[edit]Non-manual signs
Signed languages convey much of their prosody through non-manual signs. Postures or movements of the body, head, eyebrows, eyes, cheeks, and mouth are used in various combinations to show several categories of information, including lexical distinction, grammatical structure, adjectival or adverbial content, and discourse functions.
In ASL, some signs have required facial components that distinguish them from other signs. An example of this sort of lexical distinction is the sign translated 'not yet', which requires that the tongue touch the lower lip and that the head rotate from side to side, in addition to the manual part of the sign. Without these features it would be interpreted as 'late'.[20]
Grammatical structure that is shown through non-manual signs includes questions, negation, relative clauses,[21] boundaries between sentences,[22] and the argument structure of some verbs.[23] ASL and BSL use similar non-manual marking for yes/no questions, for example. They are shown through raised eyebrows and a forward head tilt.[24][25]
Some adjectival and adverbial information is conveyed through non-manual signs, but what these signs are varies from language to language. For instance, in ASL a slightly open mouth with the tongue relaxed and visible in the corner of the mouth means 'carelessly,' but a similar sign in BSL means 'boring' or 'unpleasant.'[25]
Discourse functions such as turn taking are largely regulated through head movement and eye gaze. Since the addressee in a signed conversation must be watching the signer, a signer can avoid letting the other person have a turn by not looking at them, or can indicate that the other person may have a turn by making eye contact.[26]
[edit]Iconicity in signed languages
The first studies on iconicity in ASL were published in the late 1970s, and early 1980s. Many early signed language linguists rejected the notion that iconicity was an important aspect of the language.[27][28] Though they recognized that certain aspects of the language seemed iconic, they considered this to be merely extralinguistic, a property which did not influence the language. Frishberg (1975) wrote a very influential paper addressing the relationship between arbitrariness and iconicity in ASL. She concluded that though originally present in many signs, iconicity is degraded over time through the application of grammatical processes. In other words, over time, the natural processes of regularization in the language obscures any iconically motivated features of the sign.
Some researchers have suggested that the properties of ASL give it a clear advantage in terms of learning and memory.[29] Brown, a psychologist by trade, was one of the first to document this benefit. In his study, Brown found that when children were taught signs that had high levels of iconic mapping they were significantly more likely to recall the signs in a later memory task than when they were taught signs that had little or no iconic properties.
"Hello" in ASL (American sign language)
Another variation of "hello" in ASL (American sign language)
The pioneers of sign language linguistics were yoked with the task of trying to prove that ASL was a real language and not merely a collection of gestures or “English on the hands.” One of the prevailing beliefs at this time was that ‘real languages’ must consist of an arbitrary relationship between form and meaning. Thus, if ASL consisted of signs that had iconic form-meaning relationship, it could not be considered a real language. As a result, iconicity as a whole was largely neglected in research of signed languages.
The cognitive linguistics perspective rejects a more traditional definition of iconicity as a relationship between linguistic form and a concrete, real-world referent. Rather it is a set of selected correspondences between the form and meaning of a sign.[30] In this view, iconicity is grounded in a language user’s mental representation (“construal” in Cognitive Grammar). It is defined as a fully grammatical and central aspect of a signed language rather than periphery phenomena.[31]
The cognitive linguistics perspective allows for some signs to be fully iconic or partially iconic given the number of correspondences between the possible parameters of form and meaning.[32] In this way, the Israeli Sign Language (ISL) sign for ASK has parts of its form that are iconic (“movement away from the mouth” means “something coming from the mouth”), and parts that are arbitrary (the handshape, and the orientation).[33]
Many signs have metaphoric mappings as well as iconic or metonymic ones. For these signs there are three way correspondences between a form, a concrete source and an abstract target meaning. The ASL sign LEARN has this three way correspondence. The abstract target meaning is “learning.” The concrete source is putting objects into the head from books. The form is a grasping hand moving from an open palm to the forehead. The iconic correspondence is between form and concrete source. The metaphorical correspondence is between concrete source and abstract target meaning. Because the concrete source is connected to two correspondences linguistics refer to metaphorical signs as “double mapped.”[30][32][33]
[edit]Classification of sign languages
See also: List of sign languages
Although sign languages have emerged naturally in deaf communities alongside or among spoken languages, they are unrelated to spoken languages and have different grammatical structures at their core.
There has been very little historical linguistic research on sign languages, apart from a few comparisons of lexical data of related sign languages. Sign language typology is still in its infancy, since extensive knowledge about sign language grammars is still scarce. Although various cross-linguistic studies have been undertaken, it is difficult to use these for typological purposes. Sign languages may spread through migration, through the establishment of deaf schools (often by foreign-trained educators), or due to political domination.
Language contact and creolization is common, making clear family classifications difficult – it is often unclear whether lexical similarity is due to borrowing or a common parent language, or whether there was one or several parent languages. Contact occurs between sign languages, between signed and spoken languages (contact sign), and between sign languages and gestural systems used by the broader community. One author has speculated that Adamorobe Sign Language may be related to the "gestural trade jargon used in the markets throughout West Africa", in vocabulary and areal features including prosody and phonetics.[34]
BSL, Auslan and NZSL are usually considered to be a language known as BANZSL. Maritime Sign Language and South African Sign Language are also related to BSL.[35]
Danish Sign Language and its descendants Norwegian Sign Language and Icelandic Sign Language are largely mutually intelligible with Swedish Sign Language. Finnish Sign Language, and Portuguese Sign Language derive from Swedish SL, though with local admixture in the case of mutually unintelligible Finnish SL. Danish SL has French SL influence and Wittmann (1991) places them in that family, though he proposes that Swedish, Finnish, and Portuguese SL are instead related to British Sign Language.
Japanese Sign Language, Taiwanese Sign Language and Korean Sign Language are thought to be members of a Japanese Sign Language family.[36]
French Sign Language family. There are a number of sign languages that emerged from French Sign Language (LSF), or are the result of language contact between local community sign languages and LSF. These include: French Sign Language, Italian Sign Language, Quebec Sign Language, American Sign Language, Irish Sign Language, Russian Sign Language, Dutch Sign Language (NGT), Spanish Sign Language, Mexican Sign Language, Brazilian Sign Language (LIBRAS), Catalan Sign Language, Austrian Sign Language (along with its twin Hungarian Sign Language and its offspring Czech Sign Language) and others.
A subset of this group includes languages that have been heavily influenced by American Sign Language (ASL), or are regional varieties of ASL. Bolivian Sign Language is sometimes considered a dialect of ASL. Thai Sign Language is a mixed language derived from ASL and the native sign languages of Bangkok and Chiang Mai, and may be considered part of the ASL family. Others possibly influenced by ASL include Ugandan Sign Language, Kenyan Sign Language, Philippine Sign Language and Malaysian Sign Language.
German Sign Language (DGS) gave rise to Polish Sign Language; it also at least strongly influenced Israeli Sign Language, though it is unclear whether the latter derives from DGS or from Austrian Sign Language, which is in the French family.
Lyons Sign Language may be the source of Flemish Sign Language (VGT) though this is unclear.
According to a SIL report, the sign languages of Russia, Moldova and Ukraine share a high degree of lexical similarity and may be dialects of one language, or distinct related languages. The same report suggested a "cluster" of sign languages centered around Czech Sign Language, Hungarian Sign Language and Slovak Sign Language. This group may also include Romanian, Bulgarian, and Polish sign languages.
Sign languages of Jordan, Lebanon, Syria, Palestine, and Iraq (and possibly Saudi Arabia) may be part of a sprachbund, or may be one dialect of a larger Eastern Arabic Sign Language.
Known isolates include Nicaraguan Sign Language, Kata Kolok, Al-Sayyid Bedouin Sign Language, and Providence Island Sign Language.
The only comprehensive classification along these lines going beyond a simple listing of languages dates back to 1991.[37] The classification is based on the 69 sign languages from the 1988 edition of Ethnologue that were known at the time of the 1989 conference on sign languages in Montreal and 11 more languages the author added after the conference.[38]
Wittmann classification of sign languages
Primary
language Primary
group Auxiliary
language Auxiliary
group
Prototype-A[39]
5
1
7
2
Prototype-R[40]
18
1
1
–
BSL-derived
8
–
–
–
DGS-derived
1 or 2
–
–
–
JSL-derived
2
–
–
–
LSF-derived
30
–
–
–
LSG-derived
1?
–
–
–
In his classification, the author distinguishes between primary and auxiliary sign languages[41] as well as between single languages and names that are thought to refer to more than one language.[42] The prototype-A class of languages includes all those sign languages that seemingly cannot be derived from any other language.[39] Prototype-R languages are languages that are remotely modelled on a prototype-A language (in many cases thought to have been FSL) by a process Kroeber (1940) called "stimulus diffusion".[40] The families of BSL, DGS, JSL, LSF (and possibly LSG) were the products of creolization and relexification of prototype languages.[43] Creolization is seen as enriching overt morphology in sign languages, as compared to reducing overt morphology in vocal languages.[44]
[edit]Typology of sign languages
See also: Linguistic typology
Linguistic typology (going back on Edward Sapir) is based on word structure and distinguishes morphological classes such as agglutinating/concatenating, inflectional, polysynthetic, incorporating, and isolating ones.
Sign languages vary in word-order typology as there are different word orders in different languages. For example, ÖGS, Japanese Sign Language and so-called Indo-Pakistani Sign Language are Subject-Object-Verb while ASL is Subject-Verb-Object. Influence from the surrounding spoken languages is not improbable.
Sign languages tend to be incorporating classifier languages, where a classifier handshape representing the object is incorporated into those transitive verbs which allow such modification. For a similar group of intransitive verbs (especially motion verbs), it is the subject which is incorporated. Only in a very few sign languages (for instance Japanese Sign Language) are agents ever incorporated. in this way, since subjects of intransitives are treated similarly to objects of transitives, incorporation in sign languages can be said to follow an ergative pattern.
Brentari[45][46] classifies sign languages as a whole group determined by the medium of communication (visual instead of auditive) as one group with the features monosyllabic and polymorphemic. That means, that via one syllable (i.e. one word, one sign) several morphemes can be expressed, like subject and object of a verb determine the direction of the verb's movement (inflection).
[edit]Acquisition of signed languages
See also: Language acquisition
Children who are exposed to a signed language from birth will acquire it, just as hearing children acquire their native spoken language.[47]
The acquisition of non-manual features follows an interesting pattern: When a word that always has a particular non-manual feature associated with it (such as a wh- question word) is learned, the non-manual aspects are attached to the word but don’t have the flexibility associated with adult use. At a certain point the non-manual features are dropped and the word is produced with no facial expression. After a few months the non-manuals reappear, this time being used the way adult signers would use them.[48]
[edit]Written forms of sign languages
Sign languages do not have a traditional or formal written form. Many Deaf people do not see a need to write their own language.[49]
Several ways to statively represent sign languages have been developed.
The Stokoe notation, devised by Dr. William Stokoe for his 1965 Dictionary of American Sign Language, is an abstract phonemic notation system. Designed specifically for manual expression, it has no way of expressing facial expression. However, his was designed for research, not general-use.
The Hamburg Notation System (HamNoSys), developed in the early 1990s, is a detailed phonetic system, not designed for any one sign language, and intended as a transcription system for researchers rather than as a practical script.
David J. Peterson has attempted to create a phonetic transcription system for signing that is ASCII-friendly known as the Sign Language International Phonetic Alphabet (SLIPA).
SignWriting, developed by Valerie Sutton in 1974, is a system for representing signed languages phonetically (including mouthing, facial expression and dynamics of movement). The script is sometimes used for detailed research, language documentation, as well as publishing texts and works in signed languages.
Si5s is another orthography which is largely phonemic. However, a few signs are logographs and/or ideographs due to regional variation in sign languages.
ASL-phabet is a system designed by Dr. Sam Supalla which uses a minimalist collection of symbols in the order of Handshape-Location-Movement. Many signs can be written the same way (homograph).
So far, there is no formal or consensus-wide acceptance of one or another of the aforementioned orthographies.
[edit]Sign perception
For a native signer, sign perception influences how the mind makes sense of their visual language experience. For example, a handshape may vary based on the other signs made before or after it, but these variations are arranged in perceptual categories during its development. The mind detects handshape contrasts but groups similar handshapes together in one category.[50][51][52] Different handshapes are stored in other categories. The mind ignores some of the similarities between different perceptual categories, at the same time preserving the visual information within each perceptual category of handshape variation.
[edit]Sign languages in society
[edit]Telecommunications facilitated signing
Video Interpreter sign used at VRS/VRI service locations
Main articles: Video Remote Interpreting and Video Relay Service
One of the first demonstrations of the ability for telecommunications to help sign language users communicate with each other occurred when AT&T's videophone (trademarked as the "Picturephone") was introduced to the public at the 1964 New York World's Fair – two deaf users were able to freely communicate with each other between the fair and another city.[53] Various organizations have also conducted research on signing via videotelephony.
Sign language interpretation services via Video Remote Interpreting (VRI) or a Video Relay Service (VRS) are useful in the present-day where one of the parties is deaf, hard-of-hearing or speech-impaired (mute) and the other is Hearing. In VRI, a sign-language user and a Hearing person are in one location, and the interpreter is in another (rather than being in the same room with the clients as would normally be the case). The interpreter communicates with the sign-language user via a video telecommunications link, and with the Hearing person by an audio link. In VRS, the sign-language user, the interpreter, and the Hearing person are in three separate locations, thus allowing the two clients to talk to each other on the phone through the interpreter.
In such cases the interpretation flow is normally between a signed language and an oral language that are customarily used in the same country, such as French Sign Language (FSL) to spoken French, Spanish Sign Language (SSL) to spoken Spanish, British Sign Language (BSL) to spoken English, and American Sign Language (ASL) also to spoken English (since BSL and ASL are completely distinct), etc. Multilingual sign language interpreters, who can also translate as well across principal languages (such as to and from SSL, to and from spoken English), are also available, albeit less frequently. Such activities involve considerable effort on the part of the interpreter, since sign languages are distinct natural languages with their own construction and syntax, different from the oral language used in the same country.
A deaf person using a Video Relay Service to communicate with a hearing person
With video interpreting, sign language interpreters work remotely with live video and audio feeds, so that the interpreter can see the deaf party, and converse with the hearing party, and vice versa. Much like telephone interpreting, video interpreting can be used for situations in which no on-site interpreters are available. However, video interpreting cannot be used for situations in which all parties are speaking via telephone alone. VRI and VRS interpretation requires all parties to have the necessary equipment. Some advanced equipment enables interpreters to remotely control the video camera, in order to zoom in and out or to point the camera toward the party that is signing.
[edit]Home sign
Main article: Home sign
Sign systems are sometimes developed within a single family. For instance, when hearing parents with no sign language skills have a deaf child, an informal system of signs will naturally develop, unless repressed by the parents. The term for these mini-languages is home sign (sometimes homesign or kitchen sign).[54]
Home sign arises due to the absence of any other way to communicate. Within the span of a single lifetime and without the support or feedback of a community, the child naturally invents signals to facilitate the meeting of his or her communication needs. Although this kind of system is grossly inadequate for the intellectual development of a child and it comes nowhere near meeting the standards linguists use to describe a complete language, it is a common occurrence. No type of Home Sign is recognized as an official language.
[edit]Use of signs in hearing communities
Gesture is a typical component of spoken languages. More elaborate systems of manual communication have developed in places or situations where speech is not practical or permitted, such as cloistered religious communities, scuba diving, television recording studios, loud workplaces, stock exchanges, baseball, hunting (by groups such as the Kalahari bushmen), or in the game Charades.
In Rugby Union the referee uses a limited but defined set of signs to communicate his/her decisions to the spectators.
Military and police forces also use silent hand and arm signals to signal instructions/observations in combat situations.[55]
Recently, there has been a movement to teach and encourage the use of sign language with toddlers before they learn to talk, because such young children can communicate effectively with signed languages well before they are physically capable of speech. This is typically referred to as Baby Sign. There is also movement to use signed languages more with non-deaf and non-hard-of-hearing children with other causes of speech impairment or delay, for the obvious benefit of effective communication without dependence on speech.
On occasion, where the prevalence of deaf people is high enough, a deaf sign language has been taken up by an entire local community. Famous examples of this include Martha's Vineyard Sign Language in the USA, Kata Kolok in a village in Bali, Adamorobe Sign Language in Ghana and Yucatec Maya sign language in Mexico. In such communities deaf people are not socially disadvantaged.
Many Australian Aboriginal sign languages arose in a context of extensive speech taboos, such as during mourning and initiation rites. They are or were especially highly developed among the Warlpiri, Warumungu, Dieri, Kaytetye, Arrernte, and Warlmanpa, and are based on their respective spoken languages.
A pidgin sign language arose among tribes of American Indians in the Great Plains region of North America (see Plains Indian Sign Language). It was used to communicate among tribes with different spoken languages. There are especially users today among the Crow, Cheyenne, and Arapaho. Unlike other sign languages developed by hearing people, it shares the spatial grammar of deaf sign languages.
[edit]Sign language and children
Main article: Baby sign language
Sign language is becoming a popular teaching style for young children. Since the muscles in babies' hands grow and develop quicker than their mouths, sign language is a beneficial option for better communication[56]. Younger children can learn and pick up sign language quicker than they learn to speak. This decreases the confusion between parents when trying to figure out what their child wants.
[edit]Gestural theory of human language origins
Main article: Origin of language – Gestural theory
The gestural theory states that vocal human language developed from a gestural sign language.[57] An important question for gestural theory is what caused the shift to vocalization.[58]
[edit]Primate use of sign language
Main article: Great ape language –Primate use of sign language
There have been several notable examples of scientists teaching non-human primates basic signs in order to communicate with humans,[59] but the degree to which these basic signs relate to human sign language and the ability of the animals in question to actually communicate is a matter of substantial controversy and dispute.[60][61] Notable examples include:
Chimpanzees: Washoe and Loulis
Gorillas: Michael and Koko.
[edit]Deaf communities and deaf culture
Deaf communities are very widespread in the world and the culture which comprises within them is very rich. Sometimes it even does not intersect with the culture of the hearing population because of different impediments for hard-of-hearing people to perceive aurally conveyed information.
There are many theories indicating what Indian sign language were applied for. One theory indicates that the sign system's development provided great ease for the local inhabitants to talk with each other: In the 1500's, a Spanish expeditionary, Cabeza de Vaca, observed using sign language with native Indians on the west part of modern day Florida. In mid 16th century, Franciso de Coronado also mentioned that communication with the Tonkawa using signs, was possible without the presence of an translator.
Ideas narrate to doing business with the use of sign as a common understandable language, and even exaggerated ideas of Native American using sign because they were perceived to be "exotic" and "uncivilized" group also prevail. Nevertheless, the sign adhered by the Indians were used primarily with communication between tribes or for the usage of hunting. If gestures that were used by primitive individuals or Native Indians did in fact or not quite reach the stage of being official languages, excluding the usage of oration and still having full communication, is still up for debate.There are estimates indicating that as frequent as 15 in 650 Native Americans have serious deafness or are completely Deaf.These estimates are more than twice the national medium.
[edit]Legal recognition
Main article: Legal recognition of sign languages
Some sign languages have obtained some form of legal recognition, while others have no status at all.
[edit]See also
Animal language
Body language
Braille
Cherology
Chinese number gestures
Eldridge v. British Columbia (Attorney General)
Gestures
History of sign language
Intercultural competence
International Sign
Legal recognition of sign languages (status per country/region)
List of international common standards
List of sign languages
Metacommunicative competence
Sign language glove
Sign language in infants and toddlers
Sign language media
Sign language on television
Sign name
[edit]References
^ Stokoe, William C. (1976). Dictionary of American Sign Language on Linguistic Principles. Linstok Press. ISBN 0-932130-01-1.
^ Stokoe, William C. (1960). Sign language structure: An outline of the visual communication systems of the American deaf. Studies in linguistics: Occasional papers (No. 8). Buffalo: Dept. of Anthropology and Linguistics, University at Buffalo.
^ Bauman, Dirksen (2008). Open your eyes: Deaf studies talking. University of Minnesota Press. ISBN 0816646198.
^ Babylonian Talmud Gittin folio 59a
^ Pablo Bonet, J. de (1620) Reduction de las letras y Arte para enseñar á ablar los Mudos. Ed. Abarca de Angulo, Madrid, ejemplar facsímil accesible en la [1], online (spanish) scan of book, held at University of Sevilla, Spain
^ Canlas (2006).
^ http://www.ethnologue.com/show_language.asp?code=bfi
^ http://www.sil.org/silesr/abstract.asp?ref=2007-008; Steve and Dianne Parkhurst, personal communication
^ http://www.sil.org/silesr/abstract.asp?ref=2009-002
^ Lucas, Ceil, Robert Bayley and Clayton Valli. 2001. Sociolinguistic Variation in American Sign Language. Washington, DC: Gallaudet University Press.
^ Lucas, Ceil, Bayley, Robert, Clayton Valli. 2003. What's Your Sign for PIZZA? An Introduction to Variation in American Sign Language. Washington, DC: Gallaudet University Press.
^ Cf. Supalla, Ted & Rebecca Webb (1995). "The grammar of international sign: A new look at pidgin languages." In: Emmorey, Karen & Judy Reilly (eds). Language, gesture, and space. (International Conference on Theoretical Issues in Sign Language Research) Hillsdale, N.J.: Erlbaum, pp. 333–352; McKee R. & J. Napier J. (2002). "Interpreting in International Sign Pidgin: an analysis." Journal of Sign Language Linguistics 5(1).
^ Klima, Edward S.; & Bellugi, Ursula. (1979). The signs of language. Cambridge, MA: Harvard University Press. ISBN 0-674-80795-2.
^ Sandler, Wendy; & Lillo-Martin, Diane. (2006). Sign Language and Linguistic Universals. Cambridge: Cambridge University Press.
^ Johnston (1989).
^ Taub (2001).
^ Emmorey, K. (2002). Language, cognition and the brain: Insights from sign language research. Mahwah, NJ: Lawrence Erlbaum Associates.
^ Nakamura (1995).
^ Battison, Robbin (1978). Lexical Borrowing in American Sign Language. Silver Spring, MD: Linstok Press.
^ Liddell, Scott K. (2003). Grammar, Gesture, and Meaning in American Sign Language. Cambridge: Cambridge University Press.
^ Boudreault, Patrick; Mayberry, Rachel I. (2006). "Grammatical processing in American Sign Language: Age of first-language acquisition effects in relation to syntactic structure". Language and Cognitive Processes 21: 608–635. doi:10.1080/01690960500139363.
^ Fenlon, Jordan; Denmark, Tanya; Campbell, Ruth, Woll, Bencie (2008). "Seeing sentence boundaries". Sign Language & Linguistics 10 (2): 177–200.
^ Thompson, Robin; Emmorey, Karen; Kluender, Robert (2006). "The Relationship between Eye Gaze and Verb Agreement in American Sign Language: An Eye-tracking Study". Natural Language & Linguistic Theory 24: 571–604. doi:10.1007/s11049-005-1829-y.
^ Baker, Charlotte, and Dennis Cokely (1980). American Sign Language: A teacher's resource text on grammar and culture. Silver Spring, MD: T.J. Publishers.
^ a b Sutton-Spence, Rachel, and Bencie Woll (1998). The linguistics of British Sign Language. Cambridge: Cambridge University Press.
^ Baker, Charlotte (1977). Regulators and turn-taking in American Sign Language discourse, in Lynn Friedman, On the other hand: New perspectives on American Sign Language. New York: Academic Press
^ Frishberg (1975)
^ Klima & Bellugi (1979)
^ Brown 1980
^ a b Taub (2001)
^ Wilcox (2004)
^ a b Wilcox (2000)
^ a b Meir (2010)
^ Frishberg (1987). See also the classification of Wittmann (1991) for the general issue of jargons as prototypes in sign language genesis.
^ See Gordon (2008), under nsr [2] and sfs [3].
^ Fischer, Susan D. et al. (2010). "Variation in East Asian Sign Language Structures" in Sign Languages, p. 499. at Google Books
^ Henri Wittmann (1991). The classification is said to be typological satisfying Jakobson's condition of genetic interpretability.
^ Wittmann's classification went into Ethnologue's database where it is still cited.[4] The subsequent edition of Ethnologue in 1992 went up to 81 sign languages and ultimately adopting Wittmann's distinction between primary and alternates sign langues (going back ultimately to Stokoe 1974) and, more vaguely, some other of his traits. The 2008 version of the 15th edition of Ethnologue is now up to 124 sign languages.
^ a b These are Adamorobe Sign Language, Armenian Sign Language, Australian Aboriginal sign languages, Hindu mudra, the Monastic sign languages, Martha's Vineyard Sign Language, Plains Indian Sign Language, Urubú-Kaapor Sign Language, Chinese Sign Language, Indo-Pakistani Sign Language (Pakistani SL is said to be R, but Indian SL to be A, though they are the same language), Japanese Sign Language, and maybe the various Thai Hill-Country sign languages, French Sign Language, Lyons Sign Language, and Nohya Maya Sign Language. Wittmann also includes, bizarrely, Chinese characters and Egyptian hieroglyphs.
^ a b These are Providencia Island, Kod Tangan Bahasa Malaysia (manually signed Malay), German, Ecuadoran, Salvadoran, Gestuno, Indo-Pakistani (Pakistani SL is said to be R, but Indian SL to be A, though they are the same language), Kenyan, Brazilian, Spanish, Nepali (with possible admixture), Penang, Rennellese, Saudi, the various Sri Lankan sign languages, and perhaps BSL, Peruvian, Tijuana, Venezuelan, and Nicaraguan sign languages.
^ Wittmann adds that this taxonomic criterion is not really applicable with any scientific rigor: Auxiliary sign languages, to the extent that they are full-fledged natural languages (and therefore included in his survey) at all, are mostly used by the deaf as well, and some primary sign languages (such as ASL and Adamorobe Sign Language) have acquired auxiliary usages.
^ Wittmann includes in this class Australian Aboriginal sign languages (at least 14 different languages), Monastic sign language, Thai Hill-Country sign languages (possibly including languages in Vietnam and Laos), and Sri Lankan sign languages (14 deaf schools with different sign languages).
^ Wittmann's references on the subject, besides his own work on creolization and relexification in vocal languages, include papers such as Fischer (1974, 1978), Deuchar (1987) and Judy Kegl's pre-1991 work on creolization in sign languages.
^ Wittmann's explanation for this is that models of acquisition and transmission for sign languages are not based on any typical parent-child relation model of direct transmission which is inducive to variation and change to a greater extent. He notes that sign creoles are much more common than vocal creoles and that we can't know on how many successive creolizations prototype-A sign languages are based prior to their historicity.[clarification needed]
^ Brentari, Diane (1998): A prosodic model of sign language phonology. Cambridge, MA: MIT Press; cited in Hohenberger (2007) on p. 349
^ Brentari, Diane (2002): Modality differences in sign language phonology and morphophonemics. In: Richard P. Meier, Kearsy Cormier, and David Quinto-Pozos (eds.), 35-36; cited in Hohenberger (2007) on p. 349
^ Emmorey, Karen (2002). Language, Cognition, and the Brain. Mahwah, NJ: Lawrence Erlbaum Associates.
^ Reilly, Judy (2005). "How Faces Come to Serve Grammar: The Development of Nonmanual Morphology in American Sign Language". In Brenda Schick, Marc Marschack, and Patricia Elizabeth Spencer. Advances in the Sign Language Development of Deaf Children. Cary, NC: Oxford University Press. pp. 262–290. ISBN 9780198039969.
^ Hopkins, Jason. 2008. Choosing how to write sign language: a sociolinguistic perspective. International Journal of the Sociology of Language 192:75–90.
^ dsdj.gallaudet.edu: http://dsdj.gallaudet.edu/assets/section/section2/entry94/DSDJ_entry94.pdf
^ Kuhl, P. (1991). Human adults and human infants show a ‘perceptual magnet effect’ for the prototypes of speech categories, monkeys do not. Perception and Psychophysics, 50, 93-107.
^ Morford, J. P., Grieve-Smith, A. B., MacFarlane, J., Staley, J. & Waters, G. S. Effects of language experience on the perception of American Sign Language. Cognition, 109, 41-53, 2008.
^ Bell Laboratories RECORD (1969) A collection of several articles on the AT&T Picturephone (then about to be released) Bell Laboratories, Pg.134–153 & 160–187, Volume 47, No. 5, May/June 1969;
^ Susan Goldin-Meadow (Goldin-Meadow 2003, Van Deusen, Goldin-Meadow & Miller 2001) has done extensive work on home sign systems. Adam Kendon (1988) published a seminal study of the homesign system of a deaf Enga woman from the Papua New Guinea highlands, with special emphasis on iconicity.
^ http://rotc.okstate.edu/pdf/FM%2021-60%20Visual%20Signals.pdf
^ Taylor-DiLeva, Kim. Once Upon A Sign : Using American Sign Language To Engage, Entertain, And Teach All Children, p. 15. Libraries Unlimited, 2011. eBook Collection (EBSCOhost). Web. 29 Feb. 2012.
^ Hewes (1973), Premack & Premack (1983), Kimura (1993), Newman (2002), Wittmann (1980, 1991)
^ Kolb & Whishaw (2003)
^ Premack & Pemack (1983), Premack (1985), Wittmann (1991).
^ "Animal Communication". Department of Linguistics, The Ohio State University. 1994. Retrieved 2008-02-21.
^ Wallman, Joel (1992). Aping Language. Cambridge University Press. ISBN 0521406668.
[edit]Bibliography
Aronoff, Mark; Meir, Irit; Sandler, Wendy (2005). "The Paradox of Sign Language Morphology". Language 81 (2): 301–344. doi:10.1353/lan.2005.0043.
Branson, J., D. Miller, & I G. Marsaja. (1996). "Everyone here speaks sign language, too: a deaf village in Bali, Indonesia." In: C. Lucas (ed.): Multicultural aspects of sociolinguistics in deaf communities. Washington, Gallaudet University Press, pp. 39–5.
Brown R. (1980). “Why are signed languages easier to learn than spoken languages?” in Proceedings of the First National Symposium on Sign Language Research and Teaching, ed. Stokoe W. C., editor. (Washington, DC: National Association of the Deaf), 9–24.
Canlas, Loida (2006). "Laurent Clerc: Apostle to the Deaf People of the New World." The Laurent Clerc National Deaf Education Center, Gallaudet University.[5]
Deuchar, Margaret (1987). "Sign languages as creoles and Chomsky's notion of Universal Grammar." Essays in honor of Noam Chomsky, 81–91. New York: Falmer.
Emmorey, Karen; & Lane, Harlan L. (Eds.). (2000). The signs of language revisited: An anthology to honor Ursula Bellugi and Edward Klima. Mahwah, NJ: Lawrence Erlbaum Associates. ISBN 0-8058-3246-7.
Fischer, Susan D. (1974). "Sign language and linguistic universals." Actes du Colloque franco-allemand de grammaire générative, 2.187-204. Tübingen: Niemeyer.
Fischer, Susan D. (1978). "Sign languages and creoles". Siple 1978: 309–31.
Frishburg, N. (1975). Arbitrariness and Iconicity: Historical Change in America. Language, 51(3), 696-719.
Frishberg, Nancy (1987). "Ghanaian Sign Language." In: Cleve, J. Van (ed.), Gallaudet encyclopaedia of deaf people and deafness. New York: McGraw-Hill Book Company.
Goldin-Meadow, Susan, 2003, The Resilience of Language: What Gesture Creation in Deaf Children Can Tell Us About How All Children Learn Language, Psychology Press, a subsidiary of Taylor & Francis, New York, 2003
Gordon, Raymond, ed. (2008). Ethnologue: Languages of the World, 15th edition. SIL International, ISBN 978-1-55671-159-6, ISBN 1-55671-159-X. Web version.[6] Sections for primary sign languages [7] and alternative ones [8].
Groce, Nora E. (1988). Everyone here spoke sign language: Hereditary deafness on Martha's Vineyard. Cambridge, MA: Harvard University Press. ISBN 0-674-27041-X.
Healy, Alice F. (1980). Can Chimpanzees learn a phonemic language? In: Sebeok, Thomas A. & Jean Umiker-Sebeok, eds, Speaking of apes: a critical anthology of two-way communication with man. New York: Plenum, 141–143.
Hewes, Gordon W. (1973). "Primate communication and the gestural origin of language". Current Anthropology 14: 5–32. doi:10.1086/201401.
Johnston, Trevor A. (1989). Auslan: The Sign Language of the Australian Deaf community. The University of Sydney: unpublished Ph.D. dissertation.[9]
Kamei, Nobutaka (2004). The Sign Languages of Africa, "Journal of African Studies" (Japan Association for African Studies) Vol.64, March, 2004. [NOTE: Kamei lists 23 African sign languages in this article].
Kegl, Judy (1994). "The Nicaraguan Sign Language Project: An Overview." Signpost 7:1.24–31.
Kegl, Judy, Senghas A., Coppola M (1999). "Creation through contact: Sign language emergence and sign language change in Nicaragua." In: M. DeGraff (ed), Comparative Grammatical Change: The Intersection of Language Acquisistion, Creole Genesis, and Diachronic Syntax, pp. 179–237. Cambridge, MA: MIT Press.
Kegl, Judy (2004). "Language Emergence in a Language-Ready Brain: Acquisition Issues." In: Jenkins, Lyle, (ed), Biolinguistics and the Evolution of Language. John Benjamins.
Kendon, Adam. (1988). Sign Languages of Aboriginal Australia: Cultural, Semiotic and Communicative Perspectives. Cambridge: Cambridge University Press.
Kimura, Doreen (1993). Neuromotor Mechanisms in Human Communication. Oxford: Oxford University Press.
Klima, Edward S.; & Bellugi, Ursula. (1979). The signs of language. Cambridge, MA: Harvard University Press. ISBN 0-674-80795-2.
Kolb, Bryan, and Ian Q. Whishaw (2003). Fundamentals of Human Neuropsychology, 5th edition, Worth Publishers.
Kroeber, Alfred L. (1940). "Stimulus diffusion". American Anthropologist 42: 1–20. doi:10.1525/aa.1940.42.1.02a00020.
Krzywkowska, Grazyna (2006). "Przede wszystkim komunikacja", an article about a dictionary of Hungarian sign language on the internet (Polish).
Lane, Harlan L. (Ed.). (1984). The Deaf experience: Classics in language and education. Cambridge, MA: Harvard University Press. ISBN 0-674-19460-8.
Lane, Harlan L. (1984). When the mind hears: A history of the deaf. New York: Random House. ISBN 0-394-50878-5.
Madell, Samantha (1998). Warlpiri Sign Language and Auslan – A Comparison. M.A. Thesis, Macquarie University, Sydney, Australia.[10]
Madsen, Willard J. (1982), Intermediate Conversational Sign Language. Gallaudet University Press. ISBN 978-0913580790.
Nakamura, Karen. (1995). "About American Sign Language." Deaf Resourec Library, Yale University.[11]
Meir, I. (2010). Iconicity and metaphor: Constraints on metaphorical extension of iconic forms. Language, 86(4), 865-896.
Newman, A. J. et al.; Bavelier, D; Corina, D; Jezzard, P; Neville, HJ (2002). "A Critical Period for Right Hemisphere Recruitment in American Sign Language Processing". Nature Neuroscience 5 (1): 76–80. doi:10.1038/nn775. PMID 11753419.
O'Reilly, S. (2005). Indigenous Sign Language and Culture; the interpreting and access needs of Deaf people who are of Aboriginal and/or Torres Strait Islander in Far North Queensland. Sponsored by ASLIA, the Australian Sign Language Interpreters Association.
Padden, Carol; & Humphries, Tom. (1988). Deaf in America: Voices from a culture. Cambridge, MA: Harvard University Press. ISBN 0-674-19423-3.
Poizner, Howard; Klima, Edward S.; & Bellugi, Ursula. (1987). What the hands reveal about the brain. Cambridge, MA: MIT Press.
Premack, David, & Ann J. Premack (1983). The mind of an ape. New York: Norton.
Premack, David (1985). "'Gavagai!' or the future of the animal language controversy". Cognition 19 (3): 207–296. doi:10.1016/0010-0277(85)90036-8. PMID 4017517.
Sacks, Oliver W. (1989). Seeing voices: A journey into the world of the deaf. Berkeley: University of California Press. ISBN 0-520-06083-0.
Sandler, Wendy (2003). Sign Language Phonology. In William Frawley (Ed.), The Oxford International Encyclopedia of Linguistics.[12]
Sandler, Wendy; & Lillo-Martin, Diane. (2001). Natural sign languages. In M. Aronoff & J. Rees-Miller (Eds.), Handbook of linguistics (pp. 533–562). Malden, MA: Blackwell Publishers. ISBN 0-631-20497-0.
Sandler, Wendy; & Lillo-Martin, Diane. (2006). Sign Language and Linguistic Universals. Cambridge: Cambridge University Press
Stiles-Davis, Joan; Kritchevsky, Mark; & Bellugi, Ursula (Eds.). (1988). Spatial cognition: Brain bases and development. Hillsdale, NJ: L. Erlbaum Associates. ISBN 0-8058-0046-8; ISBN 0-8058-0078-6.
Stokoe, William C. (1960, 1978). Sign language structure: An outline of the visual communication systems of the American deaf. Studies in linguistics, Occasional papers, No. 8, Dept. of Anthropology and Linguistics, University at Buffalo. 2d ed., Silver Spring: Md: Linstok Press.
Stokoe, William C. (1974). Classification and description of sign languages. Current Trends in Linguistics 12.345–71.
Taub, S. (2001). Language from the body. New York : Cambridge University press.
Valli, Clayton, Ceil Lucas, and Kristin Mulrooney. (2005) Linguistics of American Sign Language: An Introduction. 4th Ed. Washington, DC: Gallaudet University Press.
Van Deusen-Phillips S.B., Goldin-Meadow S., Miller P.J., 2001. Enacting Stories, Seeing Worlds: Similarities and Differences in the Cross-Cultural Narrative Development of Linguistically Isolated Deaf Children, Human Development, Vol. 44, No. 6.
Wilcox, P. (2000). Metaphor in American Sign Language. Washington D.C.: Gallaudet University Press.
Wilcox, S. (2004). Conceptual spaces and embodied actions: Cognitive iconicity and signed languages. Cognitive Linguistics, 15(2), 119-147.
Wittmann, Henri (1980). "Intonation in glottogenesis." The melody of language: Festschrift Dwight L. Bolinger, in: Linda R. Waugh & Cornelius H. van Schooneveld, 315–29. Baltimore: University Park Press.[13]
Wittmann, Henri (1991). "Classification linguistique des langues signées non vocalement." Revue québécoise de linguistique théorique et appliquée 10:1.215–88.[14]
Fox, Margalit (2007) Talking Hands: What Sign Language Reveals About the Mind , Simon & Schuster ISBN 978-0743247122
[edit]External links
Wikimedia Commons has media related to: Sign language
Wikibooks has a book on the topic of
American Sign Language
Note: the articles for specific sign languages (e.g. ASL or BSL) may contain further external links, e.g. for learning those languages.
American Sign Language (ASL) resource site.
Signes du Monde, directory for all online Sign Languages dictionaries (French) / (English)
List Serv for Sign Language Linguistics
The MUSSLAP Project Multimodal Human Speech and Sign Language Processing for Human-Machine Communication.
Publications of the American Sign Language Linguistics Research Project
Sign language among North American Indians compared with that among other peoples and deaf-mutes, by Garrick Mallery from Project Gutenberg. A first annual report of the Bureau of Ethnology to the Secretary of the Smithsonian Institution, 1879–1880
Pablo Bonet, J. de (1620) Reduction de las letras y Arte para enseñar á ablar los Mudos, Biblioteca Digital Hispánica (BNE).
Taiwanese Sigh Language(TSL) Online Dictionary (Chinese (Taiwan))/(English)
[show] v t e
Sign language
View page ratings
Rate this page
What's this?
Trustworthy
Objective
Complete
Well-written
I am highly knowledgeable about this topic (optional)
Submit ratings
Categories: Articles with Chinese (Taiwan) language external linksSign languagesLanguageDeafnessDeaf cultureAccessible informationEducation for the deaf
قس آلمانی
Eine Gebärdensprache ist eine eigenständige, visuell wahrnehmbare natürliche Sprache, die insbesondere von gehörlosen und schwerhörigen Menschen zur Kommunikation genutzt wird. Bei Menschen mit Taubblindheit werden Gebärdensprache bzw. Gebärden im Handkontakt über die haptischen Sinneswahrnehmungen Bewegung, Ertastung und Berührung erkannt. Die Sprache zählt zur Gruppe der Minderheitensprachen.
Gebärdensprache besteht aus kombinierten Zeichen (Gebärden), die vor allem mit den Händen, in Verbindung mit Mimik und Mundbild (lautlos gesprochene Wörter oder Silben) und zudem im Kontext mit der Körperhaltung gebildet werden.
Inhaltsverzeichnis [Verbergen]
1 Eigenständigkeit und Verhältnis zur Lautsprache
2 Gebärdenschrift
3 Manuelle Kodierungssysteme für die deutsche Sprache
4 Gebärdensprache in nationalen Gesetzen
5 Gebärdensprachkurse
6 Gebärdensprachdolmetscher
7 Siehe auch
8 Medien
8.1 Filme
8.1.1 Spielfilme
8.1.2 Serien
8.1.3 Kurz- oder Dokumentarfilme
9 Literatur
10 Weblinks
11 Einzelnachweise
Eigenständigkeit und Verhältnis zur Lautsprache [Bearbeiten]
Die Gebärden werden in vier Parametern zerlegt, die phonemisch weiter analysiert werden, in Handkonfiguration, Handorientierung, Bewegungsausführung und Ort der Bewegung. Viele Gebärden sind stark flektiert. Informationen können pronominal durch verschiedene sichtbare Formen in einer einzigen Gebärde angegeben werden, z. B. die Verbgebärde, glossiert mit ICH-BUCH-GEBEN-DIR-SCHNELL schließt die Bewegungsrichtung von „ich“ nach „du“, und zwar schnell, und das Halten eines imaginären Buches ein. Die Gebärde, jedoch ausgeführt in der Bewegungsrichtung von „du“ nach „ich“ ergibt DU-BUCH-GEBEN-MIR-SCHNELL. Die Gebärde kann weiter mit einer anderen Handform abgewandelt werden, abhängig davon, was gegeben wird z. B. ein dickes Buch, eine Flasche, Papier, ein Stapel von Büchern usw. Dazu kommt noch die unterschiedliche Orientierung der Hand bzw. Hände, ob das Objekt horizontal oder vertikal übergeben wird.
Dieses häufig als „Inkorporation“ bezeichnete (in neueren Forschungsansätzen jedoch zur Flexion gezählte) Konzept ist eine wichtige Charakteristik der Gebärdensprache. Dies ist im Unterschied zu vielen Lautsprachen stark bemerkenswert, da Informationen in vielen Lautsprachen gezwungenermaßen aufeinander folgend arbeiten müssen. Wegen der Zerlegbarkeit der Gebärden und Strukturierung innerhalb des Satzes oder der Phrase werden Gebärdensprachen wissenschaftlich als eigenständige und vollwertige Sprachen angesehen. Sie haben eigene grammatikalische Strukturen, die sich von der Lautsprache des jeweiligen Landes grundlegend unterscheiden. Daher lässt sich Gebärdensprache nicht Wort für Wort in Lautsprache umsetzen.
Gebärdensprachen unterscheiden sich von Land zu Land. So gibt es im deutschen Sprachraum die Deutsche Gebärdensprache (DGS), die Österreichische Gebärdensprache (ÖGS) wie auch die Deutschschweizer Gebärdensprache (DSGS). Letztere zum Beispiel ist wiederum in fünf verschiedene Dialekte unterteilt (Zürcher, Berner, Basler, Luzerner und St. Galler Dialekt). Unter diesen kann es wiederum auch regionale Unterschiede geben. In Graubünden zum Beispiel erkennt man Gebärden aus dem Zürcher wie auch aus dem St. Galler Dialekt. Weit verbreitet ist die American Sign Language (ASL).
Die Gebärdensprachen sind sich jedoch untereinander häufig ähnlicher als die verschiedenen Lautsprachen. Auf internationalen Veranstaltungen kommt zunehmend die sogenannte internationale Gebärdensprache zum Einsatz. Diese im Entstehen begriffene Gebärdensprache entwickelt sich durch Konventionen verschiedener länderspezifischer Gebärden nach pragmatischen Aspekten.
Die Gebärdensprache soll nach Ursula Bellugi in demselben Sprachzentrum verarbeitet werden wie Lautsprache. Daraus wird gefolgert, dass sich menschliche Sprache nicht mehr bloß als Lautsprachsystem definieren lässt.[1]
Gebärdenschrift [Bearbeiten]
Gebärdensprache hat sich bisher nicht für den Alltagsgebrauch zuverlässig verschriftlichen lassen, obwohl es bereits mehrere Ansätze dazu gibt. Für wissenschaftliche Forschungen existieren jedoch „Notationssysteme“ wie z. B. das HamNoSys (Hamburger Notationssystem); sie arbeiten z. B. mit der Zerlegung jeder Gebärde in Handform, Handstellung, Körperbereich, Bewegungsausführung etc. und der jeweils entsprechenden Darstellung. In der Praxis findet auch die so bezeichnete GebärdenSchrift (Schreibweise in Anlehnung an das englische SignWriting, ursprünglich entwickelt von Valerie Sutton und Teil des Sutton-MovementWriting-Systems) am Landesbildungszentrum für Hörgeschädigte in Osnabrück Anwendung. Sie wird mit Erfolg ab der ersten Klasse eingesetzt.
Manuelle Kodierungssysteme für die deutsche Sprache [Bearbeiten]
Von der Gebärdensprache abzugrenzen sind die sogenannten manuell-visuellen Kodierungssysteme der deutschen Sprache:
Fingeralphabet,
Lautsprachbegleitende Gebärden (LBG) oder gebärdetes Deutsch,
Lautsprachunterstützende Gebärden (LUG).
Gebärden-unterstützte Kommunikation (GuK)
Gebärdensprache in nationalen Gesetzen [Bearbeiten]
Es gab und gibt Anstrengungen, die Gebärdensprachen gesetzlich zu verankern. Uganda hat schon vor 2000 dessen Gebärdensprache verfassungsrechtlich anerkannt. Auch ist seit 2006 die Neuseeländische Gebärdensprache (NZSL) neben Englisch und Māori die offizielle Amtssprache Neuseelands. Seit dem 27. Februar 2005 ist im Schweizer Kanton Zürich verfassungsmäßig anerkannt, dass die Gebärdensprache auch zur Sprachenfreiheit gehört. Das österreichische Parlament nahm im Juli 2005 die Gebärdensprache als anerkannte Minderheitensprache in die Bundesverfassung (Art. 8, Abs. 3) auf.
Gebärdensprachkurse [Bearbeiten]
Das Erlernen einer Gebärdensprache ist auch für hörende Menschen möglich (z. B. über Volkshochschulen oder Gebärdensprachkurse) und vom Aufwand und Umfang her mit dem Erlernen einer Fremdsprache vergleichbar.
Gebärdensprachdolmetscher [Bearbeiten]
Gebärdensprachdolmetscherin auf einer Bühne beim Cologne Pride 2006 in Köln
Gebärdensprachdolmetscher (nicht: Gebärdendolmetscher) dolmetschen in beide Richtungen für gehörlose und hörende Personen. Es kommt vor, dass in einer Gruppe die Gebärdensprache dominiert und für die hörende, nicht gebärdensprachkompetente Minderheit gedolmetscht wird (als voicen bezeichnet), z. B. bei Gehörlosenkonferenzen. Es gibt auch Dolmetscher, die von einer Gebärdensprache in die andere dolmetschen, oder von einer anderen Lautsprache in die lokale Gebärdensprache (z. B. französisch in die Deutschschweizer Gebärdensprache). Gebärdensprachdolmetscherinnen und -dolmetscher, die zwischen zwei Gebärdensprachen dolmetschen, sind häufig selbst gehörlos.
In Deutschland ist spätestens seit 2002 mit Inkrafttreten des Behindertengleichstellungsgesetzes (BGG) der Anspruch gehörloser Menschen auf Gebärdensprachdolmetscher (insbesondere bei Behörden, Polizei und Gericht, aber auch am Arbeitsplatz) und andere Kommunikationshilfen (wie z. B. Schriftdolmetscher) gesetzlich geregelt. In der Schweiz gibt es seit 2004 ein ähnliches Gesetz.
Ausbildungen zum Gebärdensprachdolmetscher werden als Vollzeitstudium, etwa an der Universität Hamburg,[2] an der Hochschule Magdeburg-Stendal,[3] an der Westsächsischen Hochschule Zwickau,[4] an der Humboldt-Universität zu Berlin, als Teilzeitstudium wie an der Hochschule Fresenius in Idstein oder der Hochschule für Heilpädagogik Zürich (FH) oder als berufsbegleitende Weiterbildung, beispielsweise an der Taubstummenanstalt Universität Frankfurt a. Main,[5] dem LINGS NRW Essen, dem Gehörloseninstitut Bayern[6] in Nürnberg und dem Gebärdeninstitut Baden-Württemberg[7] in Winnenden angeboten. Weiterbildungen sind zu dem Zweck eingerichtet worden, damit langjährig tätige Gebärdensprachdolmetscher ohne Ausbildung eine Möglichkeit zur Nachqualifizierung erhalten.
Seit Ende 2006 ist ein qualifizierender Abschluss als Gebärdensprachdolmetscher in vielen Bereichen erforderlich. Eine staatliche Prüfung bieten das Amt für Lehrerbildung in Darmstadt und das Bayerische Kultusministerium[8] an. Für die staatliche Prüfung ist ein Ausbildungsnachweis nicht vorgeschrieben, wohl aber langjährige Berufstätigkeit. Die akademischen Diplome der Universitäten und Fachhochschulen können auf Wunsch und gegen eine Gebühr den staatlichen Prüfungen gleichgestellt werden.
Der Bundesverband der GebärdensprachdolmetscherInnen Deutschlands (BGSD) e.V. ist die berufsständische Vertretung der in Deutschland organisierten Gebärdensprachdolmetscher und -dolmetscherinnen. In der Deutschschweiz ist dies die Berufsvereinigung der GebärdensprachdolmetscherInnen der deutschen Schweiz (bgd).
Siehe auch [Bearbeiten]
Liste der Gebärdensprachen
Geschichte der Gebärdensprachen
Fingeralphabet
Lormen
Gestuno
Gestik
Nonverbale Kommunikation
Interkulturelle Kompetenz
Videomail-Software zur E-Mail-Kommunikation in Gebärdensprache
Tauchzeichen als Form der Zeichensprache
Medien [Bearbeiten]
Filme [Bearbeiten]
Eine Auswahl an Filmen, in denen die Gebärdensprache zum Einsatz kommt bzw. vom Leben gehörloser und taubblinder Charaktere handeln:
Spielfilme [Bearbeiten]
Filmtitel Erscheinungsjahr Inhalt
Babel 2006 In einem Erzählstrang von Alejandro González Iñárritus Film versucht eine junge, gehörlose Japanerin die Ablehnung ihrer Mitmenschen durch Drogen, Alkohol oder Partys zu kompensieren (Oscar-Nominierung für Darstellerin Rinko Kikuchi).
Black 2005 Sanjay Leela Bhansalis Drama erzählt von der Geschichte eines jungen, taubblinden Mädchens, das die Gebärdensprache erlernt (Filmfare Award u.a. für Hauptdarstellerin Rani Mukherjee und den Film).
Gottes vergessene Kinder 1986 Melodram um einen jungen Lehrer an einer Schule für gehörgeschädigte Jugendliche, der sich in eine gehörlose Frau verliebt (Oscar für Hauptdarstellerin Marlee Matlin).
Jenseits der Stille 1996 Drama von Caroline Link über eine hörende Tochter gehörloser Eltern, die die Welt der Musik entdeckt (Deutscher Filmpreis für Hauptdarstellerin Sylvie Testud).
Jenseits des Schweigens 1996 Drama von Fred Gerber um eine misshandelte, gehörlose junge Frau die bei einer Sozialarbeiterin aufgenommen wird und die Gebärdensprache erlernt (Originaltitel: Breaking Through bzw. After the Silence).
Licht im Dunkel 1962 Arthur Penns Verfilmung (Originaltitel: The Miracle Worker) über die Kindheit der taubblinden amerikanischen Schriftstellerin Helen Keller (Oscars für die Hauptdarstellerinnen Anne Bancroft und Patty Duke).
Lieber Frankie 2004 Lieber Frankie (Originaltitel: Dear Frankie) ist ein britisches Filmdrama über eine Familie und die Beziehung eines gehörlosen Jungen zu seinem abwesenden Vater..
Mr. Holland’s Opus 1995 Eine Episode der fiktiven Lebensgeschichte des Komponisten und Musiklehrers Glenn Holland (Oscarnominierung für Richard Dreyfuss) behandelt das schwierige Verhältnis zu seinem gehörlosen Sohn, für dessen Liebe zur Musik Holland zunächst kein Verständnis aufbringen kann.
Das Piano 1993 Jane Campions Film über den Selbstfindungsprozess einer verheirateten, schweigenden Mutter, die im Neuseeland des 19. Jahrhunderts eine verbotene Liebesbeziehung eingeht (Goldene Palme von Cannes; Oscar für Hauptdarstellerin Holly Hunter).
Schweigende Lippen 1948 Melodram von Jean Negulesco über eine gehörlose, junge Frau der im Kanada des 19. Jahrhunderts die Gebärdensprache gelehrt wird.
Stille Liebe 2001 Drama von Christoph Schaub über eine gehörlose Nonne (Emmanuelle Laborit).
Unser neuer Bruder 1985 Kinderfilm von Robert Michael Louis über die Freundschaft zwischen einem entlaufenen Orang-Utan und einem gehörlosen Jungen (Originaltitel: A Summer to Remember).
Der Wolfsjunge 1970 Literaturverfilmung François Truffauts über das wahre Leben des Wolfsjungen Victor von Aveyron.
Die Familie Stone – Verloben verboten! 2005 Weihnachtsfilmkomödie, in der der älteste Sohn seine Verlobte der Familie vorstellt. Einer seiner jüngeren Brüder ist gehörlos und homosexuell.
Orphan – Das Waisenkind 2009 Horrorfilm, in dem die kleine Tochter Max fast gehörlos ist.
Serien [Bearbeiten]
Switched at Birth
Die Draufgänger
Navy CIS
Kurz- oder Dokumentarfilme [Bearbeiten]
DEF (2003): 13-minütiger Kurzfilm von Ian Clark über einen gehörlosen Jungen aus einer englischen Wohnsiedlung, der davon träumt ein Rapstar zu werden.
Ich muss dir was sagen (2006): Dokumentarfilm von Martin Nguyen über vierjährige Zwillingsbrüder, von denen einer gehörlos und der andere hörend ist. Dieser Dokumentarfilm zeigt, wie sich die beiden untereinander verständigen, wie die Eltern mit der neuen Situation zurechtkommen und wie sie sich die Zukunft des gehörlosen Jungen vorstellen.
Verbotene Sprache (2009), Porträt des Gebärdensprachkünstlers Rolf Lanicca, 40 min.
Literatur [Bearbeiten]
Mein Tor in die Welt der Gehörlosen, Sachbuch für Kinder, Österreichischer Gehörlosenbund (Hg.) Wien, 2004, ISBN 3-200-00063-5
Wolfgang Müller, Gehörlose Musik, Die Tödliche Doris in gebärdensprachlicher Gestaltung. Die „Übersetzung“ der Musik und Texte der ersten LP der Gruppe von 1981 in Zeichen und Gebärden durch zwei Gebärdensprachdolmetscher auf DVD mit Buch. Edition Kroethenhayn, Berlin 2006.
Irene Leber, Jörg Spiegelhalter: Das mini Gebärden-Liederbuch. Mit den Händen singen. Loeper, Karlsruhe 2004. ISBN 3-86059-127-4
Oliver Sacks: Stumme Stimmen. Reise in die Welt der Gehörlosen. Rowohlt, Reinbek bei Hamburg 2001. ISBN 3-499-19198-9
Nora Ellen Groce: Jeder sprach hier Gebärdensprache. Erblich bedingte Gehörlosigkeit auf der Insel Martha's Vineyard. Aus dem Amerikanischen übersetzt von Elmar Bott. Signum, Seedorf 2006. ISBN 3-927731-97-8
Susan Schaller: Ein Leben ohne Worte. Knaur, München 1992. ISBN 3-426-75002-3
Christian Kleiber: Hanna Hasenöhrl, www.wirsindanders.info, Kinderbuch ISBN 978-3-00-029741-0
Bruno Griesser: Ungedruckte Texte zur Zeichensprache in den Klöstern, in: Analecta Cisterciensia 3 (1947), S. 111-137.
Weblinks [Bearbeiten]
Commons: Gebärdensprache – Sammlung von Bildern, Videos und Audiodateien
Wiktionary: Gebärdensprache – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Auswahl an Filmen in der Internet Movie Database (IMDb) die das Thema Zeichensprache zum Inhalt haben (englisch)
Ohne Worte - Die Geheimnisse der Gebärdensprache. Artikel von Chris Tomas bei Welt der Wunder vom 30. Juli 2008
Taktile Gebärdensprache
Liste der Gebärdensprachdolmetschenden
Weiterführende Links können unter DGS, DSGS und ÖGS gefunden werden.
Einzelnachweise [Bearbeiten]
↑ Leiss, Elisabeth: Sprachphilosophie. W. de Gruyter, Berlin, New York 2009, S. 265
↑ Universität Hamburg
↑ Hochschule Magdeburg Stendal
↑ Westsächsischen Hochschule Zwickau
↑ Stiftung Taubstummenanstalt, Universität Frankfurt a. Main
↑ Gehörloseninstitut Bayern
↑ Gebärdeninstitut Baden-Württemberg
↑ Bayerisches Kultusministerium
Kategorien: GebärdenspracheAngewandte LinguistikDolmetschen
قس فرانسه
La langue des signes désigne l'une ou l'autre des langues gestuelles (produites par les mouvements des mains, du visage et du corps dans son ensemble) que les personnes atteintes de surdité ont développées pour communiquer. Elle assure toutes les fonctions remplies par les langues orales.
Sommaire [masquer]
1 Histoire
2 Séméiologie
2.1 Code gestuel
2.2 Prosodie illustrative
2.3 Espace-temps
2.4 Marqueur pronominal
3 Comparaison des langues des signes
3.1 Reconnaissance légale et soutien juridique à l'accès des sourds à la langue des signes
3.2 Reconnaissance des langues signées par pays
3.2.1 France
3.3 Liste des langues des signes
3.4 Langue des signes pour bébés
4 Notes et références
4.1 Bibliographie
5 Voir aussi
5.1 Lien interne
5.2 Liens externes
Histoire[modifier]
Monument au frère Pedro Ponce de León, précurseur de la dactylologie, dans le parc du Retiro.
Article détaillé : Histoire sourde.
En l'an 1620, Juan de Pablo Bonet publie une Réduction des lettres à leurs éléments primitifs et art d'enseigner à parler aux muets suite à la prise en charge de l’éducation de Luis de Velasco, marquis du Frêne (1610 – 1664), fils sourd du connétable de Castille, Juan Fernández de Velasco y Tovar (1550 - 1613). Cet ouvrage fait de lui l’un des pionniers de l'éducation oraliste des sourds, et l'auteur du premier manuel d'orthophonie, de logopédie et de phonétique en Europe. L’Espagne de Philippe III est à l'apogée de sa puissance et de sa richesse, le connétable de Castille est, protocolairement, le second personnage du royaume et l'éducation des fils (fût-il puîné et sourd, ce qui est le cas du petit Luis) constitue une obligation sociale.
Mais Juan de Pablo Bonet n'est pas le premier à avoir pris en charge l'éducation des fils sourds des bonnes familles espagnoles. Dans la riche Castille, le primat de l'éducation pour les sourds revient à Pedro Ponce de León (1520-1584), moine bénédictin du monastère du saint Sauveur de Madrid qui a ouvert, dans son monastère, les premières classes spécialisées. Il n'est pas connu pour avoir inventé la langue des signes (ni reconnu son usage parmi ses élèves) mais il mentionne et promeut dans ses écrits l'usage de l'alphabet dactylologique pour épeler les mots, un usage qui, par ailleurs, préexistait très probablement dans les ordres monastiques (comme celui du Carmel) où les moines et moniales font vœu de silence.
Le monde ibérique étant entré dans une profonde décadence économique, politique et intellectuelle, l'innovation en la matière se déplace dans la France du xviiie siècle (alors le pays le plus développé avec l'Angleterre de John Wallis (1616-1703) et la Hollande de Johann Conrad Amman (1669-1724), autres pionniers de l’instruction des sourds-muets). On doit au marrane Jacob Rodrigue Péreire (1715-1780) d'avoir fait la transition du savoir entre les deux pays. Dès 1734, Péreire fonde un institut spécialisé à Lisbonne1 et se documente sur les méthodes d’éducation des sourds-muets (il puise largement chez Juan de Pablo Bonet). Il privilégie la démutisation, la lecture sur les lèvres, l'apprentissage précoce de la lecture et utilise une dactylologie adaptée à la langue française. Quittant le Portugal en 1741, il apporte son savoir à Bordeaux. Son premier élève est Aaron Beaumarin, né vers 1732. Il est présenté à l’Académie de La Rochelle, début 1745, afin de faire constater l’efficacité de la méthode pédagogique qu'il promeut. Un autre élève, le fils de la famille d’Azy d’Etavigny, fait l’objet d’un Mémoire présenté à Paris, à l’Académie des sciences, lors de la séance du 11 juin 1749.
L’abbé Charles-Michel de L'Épée est donc loin de défricher une terre vierge quand, dans les années 1750, il fonde un pensionnat pour les sourds qu'il finance sur ses deniers. Sa conviction philanthropique est religieuse avant d'être linguistique2 : si les sourds peuvent recevoir une éducation religieuse, ils peuvent aussi recevoir les sacrements et éviter l'enfer. C'est un propagateur hors-pair de ses idées, certes favorisé par son ascendance versaillaise, il est reçu par le roi, et par le soutien de la toute-puissante Église catholique (contrairement à son contemporain Péreire). De L'Épée a fait universellement admettre les sourds au rang de « vrais chrétiens », c'est-à-dire en tant qu'hommes à part entière, doués de raison et de langage. En 1791, deux ans après sa mort, l'Assemblée nationale l'a reconnu en décrétant que son nom serait inscrit comme bienfaiteur de l'humanité et que les sourds bénéficieraient des droits de l'homme.
Séméiologie[modifier]
Si la langue des signes est enseignée et diffusée, elle est conçue en tant que « reproduction » de la langue nationale qu'elle visualise et gestualise. Il faut attendre William Stokoe (en)3 pour que la langue des signes soit observée comme une langue à part entière grâce à la description selon le principe de la double articulation que André Martinet4 développe pour le langage humain en général et atteste pour la langue des signes dans l’introduction à l’Essai de grammaire de la langue des signes française de Nève de Mévergnies5. Ces descriptions, très souvent menées selon les critères d'analyse des langues orales, ont contribué à faire peu à peu reconnaître à ces langues leur statut de langues naturelles à part entière. Cependant du fait que les langues des signes utilisent une modalité visuo-gestuelle et non audio-orale, elles mettent en place des structures spécifiques, bien différentes de celles des langues orales et nécessitent donc une description circonstanciée.
Comme toute langue, une langue des signes nécessite un apprentissage mais il n'est pas nécessaire d'avoir une surdité pour apprendre ou communiquer en langue des signes. Pour exemple de nombreux entendants (enfants de sourds, partenaires, ou interprètes et autres professionnels en contact avec des sourds) parviennent à développer un haut degré de bilinguisme. Selon le Ministère de la Culture6, « les langues des signes sont pour les sourds, le seul mode linguistique véritablement approprié, qui leur permette un développement cognitif et psychologique d’une manière équivalente à ce qu’il en est d’une langue orale pour un entendant. »
On parle souvent quand on traite de la langue des signes d'une « pensée visuelle ». Elle remet en question ce que nous considérons habituellement comme appartenant au domaine de la linguistique. En effet, selon Christian Cuxac7, dans une perspective sémiogénétique, le modèle de la langue des signes française propose une bifurcation de visée entre deux types de structures (fréquemment imbriquées dans le discours) :
les structures dites standard ou « signes standard », au caractère conventionnel ;
les structures de grande iconicité, à visée illustrative.
Code gestuel[modifier]
Le verbe « demander » en LFS dans trois phrases : « Je vous demande » ; « Vous me demandez » et « Quelqu’un leur demande ».
Les signes standards sont conditionnés par la gestuelle de la ou des mains, de la tête et du visage, par l’orientation du signe, son emplacement et son mouvement, chaque paramètre correspondant à une liste finie d’éléments qui correspond au phonème de la langue orale. Le dénombrement des éléments par catégorie paramétrique varie selon les descriptions. Pour la seule gestuelle des mains, on en compte entre 45 et 60 différentes en langue des signes française. Ces éléments apparaissent simultanément et peuvent se combiner au sein d'un signe de même que les phonèmes se combinent au sein d'un mot.
Prosodie illustrative[modifier]
Les structures de grande iconicité sont d'un emploi récurrent dans la conduite de récit. Elles sont extrêmement originales et particulières. L'étude poussée de ces structures8 a permis de mettre en évidence différents types de transferts possibles dans un discours. Par exemple, le locuteur prend alors le rôle d’une personne ou encore, met en situation des formes9. Christian Cuxac l'explicite ainsi : « Toutes les langues permettent de reconstruire des expériences, selon des stratégies variées. (…) dans les cas d’ajouts gestuels (ex : un ballon « grand comme ça ») (…), le geste accompagne ou complète la parole, (…) le locuteur prend la voix des personnages dont il parle, pour raconter une histoire. On observe alors des phénomènes de prosodie tout à fait intéressants, lors de ces prises de rôle. Au contraire, les langues des signes donnent à voir constamment, à des degrés divers. La grande iconicité est donc l’activation, dans le domaine du discours, d’une visée illustrative (ou iconicisatrice), lorsque la dimension donnée à voir est présente. »
Espace-temps[modifier]
Il faut également relever l'utilisation particulière de l'espace par la langue des signes. En effet, alors que les langues vocales utilisent de préférences des structures syntaxiques linéaires pour le marquage temporel ou encore les relations entre différents éléments de la phrase, la langue des signes utilise de préférences des structures syntaxiques spatiales : le temps peut par exemple se dérouler selon un axe arrière-avant dans l'espace du signeur ou encore selon un axe gauche-droite.
Marqueur pronominal[modifier]
L'espace de signation (là où la personne signe) peut aussi servir à créer des repères, des marqueurs auxquels on se réfère tout au long du discours (par ex. un repère pour l'école, un pour la maison, un autre pour un personnage). Il suffit alors de pointer du doigt ou du regard l'endroit pour "l'activer" et y faire référence dans le discours. C'est en quelque sorte un usage spatial du pronom.
Comparaison des langues des signes[modifier]
La langue des signes n'est pas une langue universelle. Wittmann (1991) a fourni une classification des langues des signes. Il existe en fait, tout comme pour le langage oral, autant de langues des signes que de communautés différentes de sourds, chaque langue des signes ayant son histoire, ses unités signifiantes et son lexique. Le développement d'une langue des signes dépend de la vivacité de la communauté des personnes qui la composent, comme pour une langue vocale. La langue des signes d'une région n'a pas nécessairement une correspondance avec la langue orale régionale. En dépit des différences entre les langues des signes du monde, la compréhension et la communication est rapidement possible entre deux personnes maitrisant des langues des signes différentes. Ceci tient à la grande proximité des structures syntaxiques et à l’existence de structures très iconiques, qui donnent à voir10, caractérisées par l’absence de signes standard (qui sont eux différents pour chaque langue). L’origine de ces structures partagées tient probablement à la nature même de la langue et transfigure l'expérience humaine du monde qu'en ont ses locuteurs.
Reconnaissance légale et soutien juridique à l'accès des sourds à la langue des signes[modifier]
Seules quelques-unes de la centaine de langues des signes dans le monde, ont obtenu une reconnaissance légale, les autres ne bénéficiant d'aucun statut officiel.
Aujourd'hui encore, faute d'information, de nombreuses personnes sourdes ou parents de sourds ne connaissent pas l'existence des langues des signes et considèrent avant tout la surdité comme un handicap. Il semble nécessaire d'avoir une approche différente de la simple vision curative de la surdité et de prendre en considération la réalité sociale et linguistique des langues des signes. De nombreux pays souhaitent avant tout un épanouissement des personnes et développent l'accès en langue des signes aux lieux publics11, aux universités12, etc.
Reconnaissance des langues signées par pays[modifier]
En Algérie, la Langue des Signes Algérienne (LSA) est reconnue officiellement par la loi du 8 mai 2002 relative à la protection et à la promotion des personnes handicapées, il est prévu la réalisation d’au moins une école spécialisée dans chaque wilaya d’ici la fin 2009 selon le Ministre de la Solidarité Nationale.
En Allemagne, Deutsche Gebärdensprache (DGS), la langue des signes allemande, est reconnue officiellement sous la loi du 27 avril 200213.
En Australie, Auslan est reconnue officiellement en 1987 et en 1991 par le Gouvernement d'Australie.
En Autriche, la langue des signes autrichienne est reconnue officiellement le 1er septembre 2005 - la Constitution d'Autriche est modifiée afin d'inclure „§8 (3) Die Österreichische Gebärdensprache ist als eigenständige Sprache anerkannt. Das Nähere bestimmen die Gesetze.“ (« La langue des signes autrichienne est reconnue comme langue indépendante ». Pour plus d'informations voir http://www.oeglb.at/.
En Belgique la langue des signes belge francophone est reconnue officiellement le 21 octobre 2003 par le parlement de la Communauté française de Belgique. En Flandre, la langue des signes flamande est reconnue le 26 avril 2006 par le parlement flamand Decreet houdende de erkenning van de Vlaamse Gebarentaal.
Au Brésil, la langue des signes brésilienne (LIBRAS) est reconnue officiellement en 2002 dans la domaine de l'éducation. Il est statué que chaque enfant sourd a le droit d'apprendre en sa propre langue et d'avoir le portugais comme 2e langue.
Dans la République tchèque, la langue des signes tchèque est reconnue en 1998 - voir la législation ici (en tchèque).
Au Canada, la province du Manitoba est la première à reconnaître officiellement la langue des signes américaine comme celle des communautés sourdes en milieu anglophone (1988), suivi de l'Alberta qui reconnaît l'ASL comme langue optionnelle dans l'enseignement (1990); l'Ontario reconnaît l'ASL et la LSQ comme langues d'enseignement (1993).
Le Parlement européen a approuvé une résolution concernant les langues des signes le 17 juin 1988. La résolution demande à tous les états-membres la reconnaissance de sa langue des signes comme langue officielle des sourds.
En Finlande, la langue des signes finnoise est reconnue dans la Constitution de Finlande en août 1995.
En Espagne, seulement les communautés autonomes de Catalogne, l'Andalousie et la Communauté valencienne reconnaissent des langues des signes.
Aux États-Unis, American Sign Language est reconnue dans plusieurs états en tant que langue étrangère.
En France, dans l'article 75 du code de l'éducation, la langue des signes française est reconnue à part entière dans la domaine de l'enseignement sous la loi du 11 février 2005 (Art. L. 112-2-2 du Code de l'éducation, inséré par la Loi n° 2005-102 du 11 février 2005 pour l'égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées).
En Norvège, la langue des signes norvégienne est reconnue. Une émission quotidienne Nyheter på tegnspråk (Actualités en langue des signes) est diffusée chaque jour sur la chaîne de télévision de Norsk rikskringkasting.
En Nouvelle-Zélande, la langue des signes de la Nouvelle-Zélande est la prémière langue des signes à devenir, le 6 avril 2006, une langue officielle. C'est la 3e langue officielle du pays, après l'anglais et le māori.
En Ouganda, la langue des signes d'Ouganda est reconnue dans la constitution.
Au Portugal, la langue des signes portugaise est reconnue dans la domaine de l'éducation sous la constitution de Portugal.
En Slovaquie, la langue des signes slovaque est reconnue en 1995 dans la loi "Zákon o posunkovej reči nepočujúcich osob 149/1995 Sb" - « La loi de langue des signes des sourds 149/1995 ».
En Thaïlande, la langue des signes thaïlandaise est reconnue le 17 août 1999.
Au Venezuela, la langues des signes vénézuélienne est reconnue le 12 novembre 1999 dans la constitution.
France[modifier]
En 2005 : la loi n°2005-102 du 11 février 2005 pour l'égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées reconnaît officiellement la LSF.
Ainsi, ses art. 19 et 75 insèrent les dispositions suivantes dans le code de l'éducation :
Art. L. 112-2-2. - Dans l'éducation et le parcours scolaire des jeunes sourds, la liberté de choix entre une communication bilingue - langue des signes et langue française - et une communication en langue française est de droit. Un décret en Conseil d'Etat fixe, d'une part, les conditions d'exercice de ce choix pour les jeunes sourds et leurs familles, d'autre part, les dispositions à prendre par les établissements et services où est assurée l'éducation des jeunes sourds pour garantir l'application de ce choix.
Art. L. 312-9-1. - La langue des signes française est reconnue comme une langue à part entière. Tout élève concerné doit pouvoir recevoir un enseignement de la langue des signes française. Le Conseil supérieur de l'éducation veille à favoriser son enseignement. Il est tenu régulièrement informé des conditions de son évaluation. Elle peut être choisie comme épreuve optionnelle aux examens et concours, y compris ceux de la formation professionnelle. Sa diffusion dans l'administration est facilitée.
Liste des langues des signes[modifier]
Article détaillé : Liste des langues des signes.
Langue des signes pour bébés[modifier]
Depuis la fin du xxe siècle, on assiste à l'émergence de l'utilisation de la langue des signes pour faciliter la communication entre parents et enfants pré-verbaux.
Article détaillé : Langue des signes pour bébé.
Notes et références[modifier]
↑ Voir Rua judiaria [archive]
↑ Sans doute la différence majeure avec Péreire dont les connaissances linguistiques lui valent l’estime de Bougainville qui lui confiera l’observation et la description de la langue du Tahitien Aotourou. Il manie parfaitement le portugais, le français, l’italien et l’hébreu.
↑ William C. Stokoe, Sign Language Structure : an outline of the visual communication, Studies in linguistics, Occasional Papers n°8, Buffalo, New York, 1960. et William C. Stokoe, Semiotics and Human Sign Languages, Mouton, La Haye, 1972.
↑ André Martinet, Éléments de linguistique générale, Armand Colin, Paris, 1960.
↑ François-Xavier Nève de Mévergnies, Essai de grammaire de la langue des signes française, Fascicule CCLXXI, Bibliothèque de la Faculté de Philosophie et Lettres, Université de Liège, Belgique, 1996.
↑ Voir sur le site de la Délégation générale à la langue française et aux langues de France [archive]
↑ Christian Cuxac, Fonctions et structures de l’iconicité dans les langues des signes ; analyse descriptive d’un idiolecte parisien de la langue des signes française, thèse de doctorat d’État, Université de Paris V. et Christian Cuxac, La Langue des signes française. Les voies de l’iconicité, Ophrys, Faits de Langue n° 15-16, Paris, 2000.
↑ M-A Sallandre, Les unités du discours en langue des signes française. Tentative de catégorisation dans le cadre d’une grammaire de l’iconicité, thèse de doctorat d'État, Université de Paris VIII, 2003.
↑ M-A Sallandre, Va-et-vient de l’iconicité en langue des signes française ; Acquisition et Interaction en Langue Étrangère en ligne [archive]
↑ Christian Cuxac, La Langue des signes française. Les voies de l’iconicité, Ophrys, Faits de Langue n° 15-16, Paris, 2000. Cette idée de la proximité iconique des langues des signes a été abandonnée dans les courants de pensée internationaux au moins depuis Johnston (1989). Bien que l'Iconocité soit plus systématique et répandue dans les langues signées gestuellement que dans les langues signées vocalement, les différences ne sont ni catégorielle et ni calquées sur les langues orales. La complexité d'une morpholgie spatiale représente les mêmes embûches à l'apprenant que celle d'une morphologie linéaire (Aronoff et al. 2005).
↑ Art. L. 112-2-2 [archive] du Code de l'éducation, inséré par la Loi [archive] n° 2005-102 du 11 février 2005 pour l'égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées).
↑ Université Gallaudet pour les sourds [archive], USA.
↑ (de) Allemagne. Gesetz zur Gleichstellung behinderter Menschen und zur Änderung anderer Gesetze, art. 1, §6 [lire en ligne [archive] (page consultée le 11 juin 2011)]
Bibliographie[modifier]
Aronoff, Mark, Meir, Irit & Wendy Sandler (2005), « The Paradox of Sign Language Morphology. », Language 81 (2), 301-344.
Fusellier-Souza, I. (2005), Sémiogenèse des langues des signes. Étude de langues des signes primaires (LSP) pratiquées par des sourds brésiliens, thèse de doctorat d'État, Université de Paris VIII.
Gordon, Raymond, ed. (2008), Ethnologue: Languages of the World, 15th edition, SIL International (ISBN 978-1556711596), [1]
Johnston, Trevor A. (1989), Auslan: The Sign Language of the Australian Deaf community, The University of Sydney, unpublished Ph.D. dissertation, [2]
Wittmann, Henri (1991), « Classification linguistique des langues signées non vocalement. », Revue québécoise de linguistique théorique et appliquée 10:1.215-88.[3], Aussi dans: Fournier, Robert (1991), Les langues signées, Trois-Rivières, Presses Universitaires de Trois-Rivières.
Voir aussi[modifier]
Site de l'anniversaire des 300 ans de la naissance de L'Abbé de l'Épée par la FNSF
Site officiel de la Fédération Nationale des Sourds de France par la FNSF
Lien interne[modifier]
Liste des langues des signes
Alphabet dactylologique
Alphabet bimanuel
Histoire sourde : histoire des sourds et de la langue des signes en France.
Surdité
Langue
Langue des signes pour bébé
LSF, LSFB, BANZSL
Liens externes[modifier]
Site officiel de la Fédération Nationale des Sourds de France par la FNSF
Introduction à la Langue des Signes Française : la place du sourd et de sa langue en France Un article d'Aliyah Morgenstern
Portail des langues Portail de la linguistique Portail du handicap
Catégories : Langue des signesCulture sourdeSignal visuel | [+]
واژه های همانند
هیچ واژه ای همانند واژه مورد نظر شما پیدا نشد.