بیانیه وین درباره انسانگرایی دیجیتال
(وین، ماه می ۲۰۱۹, اردیبهشت ۱۳۹۸)
سیستم رو به شکست است – این اظهارات از طرف بنیانگذار وب، تیم برنرز-لی[۱]، تأکید میکند که هر چند دیجیتالیسازی فرصتهای بیسابقهای را به ارمغان میآورد، اما از سوی دیگر نگرانیهای جدی را نیز به همراه دارد که انحصارگرایی, در محیط وب)، افزایش عقاید و رفتارهای افراطی هماهنگ در رسانههای اجتماعی، شکلگیری حباب فیلتر[۲] و اتاقهای پژواک بهعنوان جزایری از حقایق ناهمگون، ازدستدادن حریم خصوصی و گسترش نظارت دیجیتال از آن جملهاند. فناوریهای دیجیتال جوامع را مختل میکنند و درک ما از معنای انسان بودن را زیر سؤال میبرند. تهدیدات در این زمینه زیاد است و چالش ایجاد یک جامعه عادلانه و دموکراتیک که در آن انسان در مرکز پیشرفت تکنولوژی باشد، باید با قاطعیت و همچنین هوشمندی علمی موردتوجه قرار گیرد. نوآوری تکنولوژیک نیازمند نوآوری اجتماعی است و نوآوری اجتماعی نیازمند مشارکت گسترده اجتماعی.
این بیانیه فراخوانی است برای تعمق و اقدام عملی بر روی توسعه فناوری فعلی و آینده. ما جوامع دانشگاهی خود و همچنین رهبران صنعتی، سیاستمداران، سیاستگذاران و جوامع حرفهای در سراسر جهان را تشویق میکنیم تا فعالانه در شکلگیری این چارچوب مشارکت کنند. خواستههای ما نتیجه یک فرایند نوظهور است که دانشمندان و فعالان عرصههای مختلف را به اتحاد و یکپارچگی دعوت میکند، تا با دغدغهها و امید به آینده گرد هم آیند. ما از مسئولیت مشترک خود – هم بهعنوان متخصص و هم بهعنوان شهروند – در قبال وضعیت فعلی و آینده آگاه هستیم.
امروز، ما تکامل مشترک تکنولوژی و نوع بشر را تجربه میکنیم. سیل دادهها، الگوریتمها و قدرت محاسباتی، ساختار جامعه را با تغییر نحوه تعاملات انسانی، نهادهای اجتماعی، اقتصاد و ساختارهای سیاسی مختل میکنند. علوم و علومانسانی نیز از این تغییرات مستثنی نیستند. این اختلال به طور همزمان باعث ایجاد و تهدید مشاغل، تولید و نابودی ثروت، و بهبود و آسیب زیستمحیطی به ما میشود. ساختارهای قدرت را تغییر میدهد و نتیجه آن، تمایز بین انسان و ماشین را سخت و مبهم میکند[۳].
هدف از این هماندیشی، روشنگری و انسانگرایی است. قابلیت خودکارسازی فعالیتهای شناختی انسان، جنبهای انقلابی از علوم کامپیوتر/انفورماتیک است. برای بسیاری از کارها، ماشینها در سرعت، دقت و حتی تحلیل و استنتاج، از توان انسانی پیشی میگیرند. زمان مناسبی است که آرمانهای انسانگرایانه را با افکار انتقادی در مورد پیشرفت فناوری، گرد هم آوریم؛ بنابراین، ما این بیانیه را به عرف فکری انسانگرایی و جنبشهای مشابهی مرتبط میکنیم که برای روشنفکری بشریت تلاش میکنند.
مثل همه فناوریها، فناوریهای دیجیتال از هیچ پدید نیامدهاند. آنها با انتخابهای ضمنی و صریح تکامل یافتهاند و بنابراین مجموعهای از ارزشها، هنجارها، منافع اقتصادی، و فرضیاتی در مورد اینکه دنیای اطراف ما چگونه است یا چگونه باید باشد را در بر میگیرند. بسیاری از این انتخابها در برنامههای نرمافزاری که الگوریتمهایی را اجرا میکنند, و بعضی از آنها برای همیشه نامرئی باقی میمانند) پنهان میمانند. در راستای حلقه مشهور وین[۴] و کمکهای آن به تفکر مدرن، ما میخواهیم از استدلال منطقی انتقادی و بینرشتهای موردنیاز برای شکلدادن به آینده حمایت کنیم.
ما باید فناوریها را مطابق با ارزشها و نیازهای انسانی شکل دهیم، بهجای اینکه اجازه دهیم فناوریها به انسانها شکل دهند. وظیفه ما نهتنها مهار معایب فناوری اطلاعات و ارتباطات، بلکه تشویق نوآوری انسانمحور است. ما خواهان یک انسانگرایی دیجیتالی هستیم که به توصیف، تجزیهوتحلیل و مهمتر از همه، تأثیر متقابل پیچیده فناوری و نوع بشر، برای جامعه و زندگی بهتر، با احترام کامل به حقوق جهانی بشر، میپردازد.
بهعنوان جمعبندی، ما اصول اساسی زیر را اعلام میکنیم:
- فناوریهای دیجیتال باید برای ترویج دموکراسی و جهانشمول طراحی شوند. این امر مستلزم تلاشهای ویژه برای غلبه بر نابرابریهای کنونی و استفاده از پتانسیل رهاییبخش فناوریهای دیجیتال برای بسط جوامع ما است.
- حریم خصوصی و آزادی بیان ارزشهای ضروری برای دموکراسی هستند و باید در مرکز فعالیتهای ما قرار گیرند؛ بنابراین، دستاوردهایی مانند رسانههای اجتماعی یا پلتفرمهای آنلاین باید برای حفاظت بهتر از بیان آزادانه عقیده، انتشار اطلاعات و حفاظت از حریم خصوصی تغییر کنند.
- مقررات، قواعد و قوانین مؤثر بایستی مبتنی بر گفتمان گسترده عمومی ایجاد شود و لازم است دقت در پیشبینی، انصاف و برابری، قابلیت پاسخگویی و شفافیت برنامهها و الگوریتمهای نرمافزاری را تضمین کنند.
- سازمانها و نهادهای نظارتی[۵] بایستی از هر نوع انحصار در فناوری پیشگیری و با آن مقابله کنند. فعالیت بازارها و کسبوکارها در محیطی رقابتی، ضروری است. زیرا انحصار در فناوری قدرت بازار را متمرکز کرده و هرگونه نوآوری را در نطفه خفه میکنند. دولتها نباید همه تصمیمگیریها را به بازار واگذار کنند.
- تصمیماتی که میتوانند بر حقوق فردی یا جمعی انسانها تأثیر بگذارند، باید همچنان توسط انسانها اتخاذ شوند. تصمیمگیرندگان باید در قبال تصمیمات خود مسئول و پاسخگو باشند. سیستمهای تصمیمگیری خودکار فقط باید از تصمیمگیری انسانی پشتیبانی کنند نه اینکه جایگزین آن شوند.
- رویکردهای علمی میانرشتهای پیشنیاز مقابله با چالشهای پیش رو هستند. رشتههای فناورانه مانند علوم کامپیوتر/انفورماتیک باید با علوم اجتماعی، علومانسانی و سایر علوم همکاری نموده و از تکروی در حیطه تخصصی خود پرهیز کنند.
- دانشگاه محل تولید دانش و پرورش تفکر انتقادی است. ازاینرو، دانشگاهیان مسئولیت ویژهای دارند و باید از آن آگاه باشند.
- محققان دانشگاهی و صنعتی باید تعاملی فعال با جامعه داشته و بر رویکردهای آن تأثیر بگذارند. این تعامل و تأثیر باید در فرایند تولید دانش و فناوریهای جدید نهادینه شده و در عین مدافع آزادی اندیشه و علم باشد.
- فعالان کسبوکار و متخصصین در همهجا باید در قبال تأثیر فناوری اطلاعات مسئولیت مشترک احساس کنند. آنها باید درک کنند که هیچ فناوری بیطرف نیست و حساسیت لازم برای درک مزایا و معایب احتمالی آن را داشته باشند.
- در برنامههای آموزشی جدید چشماندازی مرکب از دانش علومانسانی، علوم اجتماعی و مهندسی موردنیاز است. در دوران تصمیمگیری خودکار, از سوی سامانههای هوشمند) و هوش مصنوعی، خلاقیت و توجه به جنبههای انسانی برای آموزش مهندسان و فناوران[۶] آینده بسیار مهم است.
- آموزش علوم کامپیوتر/انفورماتیک و تأثیرات اجتماعی آن باید هر چه زودتر آغاز شود. دانش آموزان باید بیاموزند که مهارتهای خود را در فناوری اطلاعات با آگاهی از مسائل اخلاقی و اجتماعی مرتبط ترکیب کنند.
ما در مقطع حساسی رو به سوی آینده هستیم. باید وارد عمل شویم و مسیر صحیح را در پیش بگیریم!
با امضای این بیانیه حمایت خود را از این هماندیشی اعلام فرمایید. برای امضای این بیانیه اینجا کلیک کنید.
نویسندگان
Hannes Werthner, TU Wien, Austria
Edward A. Lee, UC Berkeley, USA
Hans Akkermans, Free University Amsterdam, Netherlands
Moshe Vardi, Rice University, USA
Carlo Ghezzi, Politecnico di Milano, Italy
Nadia Magnenat-Thalmann, University of Geneva, Switzerland
Helga Nowotny, Chair of the ERA Council Forum Austria, Former President of the ERC, Austria
Lynda Hardman, CWI, Centrum Wiskunde & Informatica, Netherlands
Oliviero Stock, Fondazione Bruno Kessler, Italy
James Larus, EPFL, Switzerland
Marco Aiello, University of Stuttgart, Germany
Enrico Nardelli, Università degli Studi di Roma “Tor Vergata”, Italy
Michael Stampfer, WWTF, Vienna Science and Technology Fund, Austria
Christopher Frauenberger, TU Wien, Austria
Magdalena Ortiz, TU Wien, Austria
Peter Reichl, University of Vienna, Austria
Viola Schiaffonati, Politecnico di Milano, Italy
Christos Tsigkanos, TU Wien, Austria
William Aspray, University of Colorado Boulder, USA
Mirjam E. de Bruijn, Leiden University, Netherlands
Michael Strassnig, WWTF, Vienna Science and Technology Fund, Austria
Julia Neidhardt, TU Wien, Austria
Nikolaus Forgo, University of Vienna, Austria
Manfred Hauswirth, TU Berlin, Germany
Geoffrey G. Parker, Dartmouth College, USA
Mete Sertkan, TU Wien, Austria
Allison Stanger, Middlebury College & Santa Fe Institute, USA
Peter Knees, TU Wien, Austria
Guglielmo Tamburrini, University of Naples, Italy
Hilda Tellioglu, TU Wien, Austria
Francesco Ricci, Free University of Bozen-Bolzano, Italy
Irina Nalis-Neuner, University of Vienna, Austria)
[۱] Tim Berners-Lee
[۲] حباب فیلتر, Filter Bubble) وضعیت انزوای فکری است که بر اثر نتایج جستجوی شخصیسازیشده در اینترنت پدید میآید. در این حالت الگوریتم وب سایت، آنچه کاربر انتظار دیدنش را دارد حدس میزند و نتایج دلخواهش را بهطور گزینشی نمایش میدهد؛ این کار با استفاده از اطلاعات مربوط به کاربر از قبیل مکان، رفتار و کلیکهای قبلی و سابقه جستجوی او انجام میشود. در نتیجه کاربر در حبابهایی که به لحاظ فرهنگی و ایدئولوژیک با سلیقه و ذائقه او همخوانی دارند محبوس میشود و امکان برخورداری از نتایجی که با دیدگاههای او مغایرت دارند را از دست میدهد. اصطلاح «حباب فیلتر» را ایلای پاریسر, Eli Pariser) کنشگر اینترنتی ابداع کرده و در همین رابطه کتابی به رشته تحریر درآورد.
[۳] یعنی شکافی که قابلیت تفکیک و تمایز بین انسان و ماشین را کمتر میکند. این عبارت به استفاده از فناوریهای هوش مصنوعی, AI) و اتصال مستقیم بین مغز انسان و سیستمهای رایانهای اشاره دارد. یکی از مثالهایی از این فناوری، رابط مغز-ماشین, Brain-Computer Interface یا BCI) است که امکان ارتباط مستقیم بین مغز انسان و سیستمهای رایانهای را فراهم میکند. با استفاده از این رابط، افراد میتوانند با ارسال سیگنالهای مغزی خود به سیستم رایانهای، دستوراتی را به ماشینها منتقل کنند. به عنوان مثال، افراد مبتلا به ناتوانی جسمی میتوانند با استفاده از رابط مغز-ماشین، دستگاههای مختلف را کنترل کنند و به این ترتیب بازده و کیفیت زندگی خود را افزایش دهند. دیگر مثالها از این فرآیند شامل هوش مصنوعی در خودروها، رباتها، سیستمهای پشتیبانی از تصمیمگیری انسان و حتی استفاده از اجسام پیوسته هوشمند, IoT) هستند. این تکنولوژیها باعث میشوند که امکانات ماشین و قابلیتهای انسان به یکدیگر نزدیکتر شوند و مرز بین آنها پر رنگتر شود.
[۴] حلقه وین, Vienna Circle) یک گروه فلسفی و علمی بود که در دهه ۱۹۲۰ در شهر وین، اتریش تشکیل شد. اعضای اصلی این گروه عمدتاً از فیلسوفان، ریاضیدانان و دانشمندان فیزیک بودند که تلاش میکردند تا با استفاده از روشهای علمی و منطقی، مبانی فلسفی و علمی را بهبود بخشند. اعضای دایره وین به عنوان پیشگامان جریان فلسفی و مکتب منطق تحلیلی شناخته میشوند. آنها ایدههایی را مطرح کردند که از جمله آنها میتوان به استدلال روشنگرانه، تجزیه و تحلیل زبانی، اهمیت تجربه و عدم قابلیت تأیید علمی برخی مفاهیم فلسفی اشاره کرد. آنها بر اهمیت استفاده از منطق ریاضی و روشهای علمی در تحلیل مسائل فلسفی تأکید داشتند و سعی کردند تا تفکر فلسفی را به روشهای دقیق و صرف نظر از تفکر متافیزیکی و غیرعلمی محدود کنند.
[۵] Regulators
[۶] Technologists
نسخه فارسی این بیانیه توسط علیرضا صائبی از نسخه انگلیسی ترجمه شده است.
لینک مرجع: https://caiml.dbai.tuwien.ac.at/dighum/dighum-manifesto