چگونه می توان از طریق علوم مرتبط به دیجیتال، هنرهای لیبرال را غنی کرد؟

چگونه می توان از طریق علوم مرتبط به دیجیتال، هنرهای لیبرال را غنی کرد؟

علوم دیجیتالی: همه چیز با یک حرف اضافه شروع شد. در سال 1941، پدر روبرتو بوسا، کشیک کاتولیک روم، شروع به یادداشت مواردی کرد، که این موارد به همان اندازه می‌توانست توسط لاتین توماس آکوئیناس، یک متکلم در زمان قرون وسطی انجام پذیرد. به مدت هشت سال 10 هزار کارت، که این کارت‌ها تحلیلی بودند از ایمان درون نگرانه، در دانشگاه گریگوریای پاپی در رم باستان، دست نویس شدند. در آن زمان پدر روبرتو بوسا، اعتقاد داشت که این موضوع می‌تواند از طریق علوم دیجیتال به شکل بهتری انجام شود.

پدر بوسا، او را به دفتر آقای توماس واتسون رئیس قسمت IBM برد. او در دهه 1950، از انواع ماشین‌های تایپ استفاده می‌کرد. او در آن زمان، ده‌ها تایپیست را استخدام کرده بود. او در سال 1980 با همکاری تیم خود توانست تا فهرست تومیستیکوس را چاپ کند.

این موضوع زمینه گسترده‌ای جهت تقابل بین علوم دیجیتال و هنر را ایجاد کرد. به تدریج با پیشرفت‌های روز افزون، ماشین‌های تایپ مجهزتری عرضه شدند و امروزه، آثار Aquinas که شامل 25 میلیون جلد کتاب و یا شاید شامل 2 تریلیون کلمه است را می‌توان در google books مشاهده کرد. Naxos نیز ابزاری دیجیتالی که شامل قطعات موسیقی به همراه شرح حالی از نویسندگان این آثار است. همچنین Spotify، یک سرویس پخش موسیقی، که شامل 60 میلیون آهنگ است.

آنچه که به عنوان علوم دیجیتال شروع شد، به سرعت در حال رشد است. به عنوان مثال در google scholar، حاوی بیش از 75000 مقاله دانشگاهی بوده که این رقم، بیشتر از داستان‌های ناپلون بناپارت (57000) و یا رومئو ژولیت (66000) است. نیمی از مقالات منتشر شده در سال 2016 است.

زمان و انواع دستگاه‌های مرتبط به علوم دیجیتال

این موضوع باعث کاهش زمان و افزایش سرعت در علوم دیجیتال شده است. دهه‌های گذشته برای انجام هر کاری باید مدت زمان طولانی صرف می‌کردید، اما امروزه پدر بورسا، می‌تواند با کمترین زمان به معانی واقعی کلمات پی ببرد. این پروژه توسط باربارا ام جی گیلیواری در انیستیتوی آلنک تورینگ، در مرکز ملی علوم داده انجام شد. او دکترای خود را در رشته زبان محاسباتی دریافت کرده است. او قصد داشت تا منابعی موسخ در مورد یونان باستان جمع آوری کند. او توانست تا در سال 2017، به وسیله یکی از همکارانش منبعی مرجع، با بیش از 10 میلیون کلمه را توسط علوم دیجیتال تولید کند. محصول نهایی او شامل اطلاعاتی در مورد، هومر، سقراط و افلاطون با حجم 2.5 گیگابایت بود.

خانوم باربارا ام جی گیلیواری توانست تا توسط دستگاه‌های پیشرفته، مجموعه‌ای درخشان را تولید کند. او و چهار نویسنده همکارش، الگوریتمی را طراحی کردند، که این الگوریتم با گذشت زمان می‌تواند تا معانی کلمات یونانی را ردیابی کند. آنها به صورت دستی 1400 کلمه KOSMOS را ترجمه کردند. سپس معانی این کلمات را که معانی آسمانی داشت را به انگلیسی نیز ترجمه شد. مدل اول شامل 700 کلمه KOSMOS بوده که نشان دهنده ارتباط انسان است. مدل دوم که بعدا ظهور کرد، نشان دهنده ارتباط بین فضا و خداوند است.

خانم مگ گیلویای می‌گوید که امروزه توسط علوم دیجیتال می‌توان بیش‌از 64000 کلمه را از هم تشخیص دهد. او قبلا متوجه شده بود، که کلمه بهشت در فارسی حدود 300 سال پیش در عهد یونان به وجود آمده است. این کلمه شامل مفاهیمی مانند خدا، غذا و فرشته است. استفاده از این الگوریتم، به یکی از اعتقادات بزرگ در دین یهود و ادبیات یونان تبدیل شد.

در سال 1750 تا 1900، بیشتر نوشته‌ها به زبان انگلیسی بود. آزمایشگاه ادبیات استنفورد در سال 2010 تاسیس شد. بیشتر داده‌ها در کشور آمریکا توسط علوم دیجیتال جمع آوری شد. همچنین توسط 60 نفر آزمایشی انجام شد، که تجربه ای متفاوت از خواندن متون توسط کامپیوترها را رقم زد.

در مرحله نخست، حدود 1700 رمان بریتانیایی را بررسی کردند و هر کدام که زبان آن قابل استفاده نبود را منتشر نکردند. رایان هوزر و لانگ – لی – خاک، ابزاری را به نام CORRELATOR ابداع کردند، که به وسیله آن می‌توانستند تا متوجه شوند، که تاریخچه کلمات به چه زمانی و یه چه کسی بر می‌گردد. اگرچه این الگوریتم‌ها خام بودند، ولی می‌توانستند تا کلماتی مانند راش، شاخه و نارون توسط علوم دیجیتال را بررسی کنند. بر اساس این روند، نویسندگان توانستند تا دسته‌هایی را که دارای کمترین و بیشترین محبوبیت بودند توسط علوم دیجیتال، را بررسی کنند.

ابتدا کلماتی مانند صداقت، متواضع، حساسیت و دلیل را به عنوان نمونه در نظر گرفته و 326 کلمه انتزاعی از آن ساختند، اصطلاحات احساسی و اخلاقی که اکنون از آن استفاده نمی‌شود. تقریبا یک درصد کلمات را در سال 1785 و 50 درصد کلمات را در سال 1900 ارائه کردند. آنها 508 کلمه سخت را تولید کردند، که زیر مجوعه کلماتی مانند (دیدن، آمدن و رفتن)، یا کلماتی از اعضای بدن مانند (دست، چشم و صورت) وصفت‌های فیزیکی(گرد، کم و واضح)، اعداد و رنگ‌ها بودند. این الگویی بود که از اتاق تزئینی الیزابت تا کوچه‌های تاریک شرلوک هولمز منتهی می‌شد. این روند، نشان دهنده انتقال از کلمات انتزاعی به کلمات ملموس بود.



How data analysis can enrich the liberal arts?

It all started with a preposition. In 1941 Father Roberto Busa, a Roman Catholic priest, started noting down as many uses of the word “in” as he could find in the Latin work of Thomas Aquinas, a medieval theologian and saint. Eight years and 10,000 handwritten cards later he completed his linguistic analysis of Aquinas’s “interiority”—his introspective faith—at Rome’s Pontifical Gregorian University. By then he had a suspicion that his work could be done far more efficiently. He started hunting for “some type of machinery” to speed up his new project, recording the context of all 10m words written by Aquinas.

Father Busa’s zeal took him to the office of Thomas Watson, ibm’s chairman. Soon he had switched from handwritten cards to ibm’s punch-card machines, before adopting magnetic tape in the 1950s. In the 1960s dozens of full-time typists were involved. By 1980, when his team finally printed the “Index Thomisticus” in 56 volumes, they had spooled through 1,500km (930 miles) of tape. A cd-rom containing 1.4gb of data came out in 1992, with a website following in 2005. The 97-year-old priest died in 2011. But not before he had initiated a new quest, to annotate the syntax of every sentence in the Index Thomisticus database.

Such is the creation story of the digital humanities, a broad academic field including all sorts of crossovers between computing and the arts. The advances since its punch-card genesis have been “enormously greater and better than I could then imagine,” remarked Father Busa in his old age. “Digitus Dei est hic! [The finger of God is here!]” Almost every humanistic composition imaginable has been rendered in bytes. Aquinas’s works are a speck in the corpus of Google Books, which contains at least 25m volumes and perhaps two trillion words. Naxos, a music service, has annotated 2.4m classical pieces with authorial biographies and instrumentation. Spotify, a streaming service, has 60m tunes, each with metadata about tempo, time signatures and timbre.

What started as a niche pursuit is growing rapidly. Google Scholar now contains about 75,000 academic articles and essays that mention “digital humanities”. That total is already bigger than for “Napoleon Bonaparte” (57,000) or “Romeo and Juliet” (66,000). Nearly half of the 75,000 articles were published since 2016.

Time and the machine

Digitisation’s clearest benefits are speed and scale. Because of decades of exponential growth in computing sophistication, projects that once lasted a lifetime—literally, for Father Busa—now require a fraction of it. Take the work of Barbara McGillivray at the Alan Turing Institute, Britain’s national centre for data science. Having done her phd in computational linguistics on the “Index Thomisticus”, she wanted to create a similar resource for ancient Greek. After starting as the institute’s first humanist in 2017, she and a colleague needed just three months to convert 12 centuries of classics into an annotated corpus of 10m words. The final product compresses Homer, Socrates and Plato into 2.5gb of tidy Extensible Markup Language (xml), complete with the grammatical properties of each word.

Curating such enormous archives is just the starting-point. The trick is to turn the data into interesting findings. Researchers have been trying to do that from almost the time when Father Busa began punching cards. From the late 1950s Frederick Mosteller and David Wallace, two statisticians, spent several years using a desk-sized ibm 7090 to calculate the frequency of words in the Federalist papers, written by Alexander Hamilton, James Madison and John Jay. They inferred that 12 anonymous essays were probably written by Madison, based on certain tics. He rarely used “upon”, for example, whereas Hamilton often did.

Advances in machine learning have given Ms McGillivray a far shinier array of tools. Along with four co-authors, she tested whether an algorithm could track the meaning of Greek words over time. They manually translated 1,400 instances of the noun kosmos, which initially tended to denote “order”, then later shifted to “world” (a celestial meaning that survives in the English “cosmos”). Encouragingly, the machine agreed. A statistical model reckoned that in 700bc kosmos was frequently surrounded by “man”, “call” and “marketplace”, a cluster suggesting “order”. By 100ad a second cluster emerged, suggesting “world”: “god”, “appear” and “space”.

The thrill of getting “a computer to blindly agree with us”, explains Ms McGillivray, is that she could now apply it easily to the 64,000 other distinct words in the corpus. She has already spotted that paradeisos, a Persian loan-word for “garden”, took on its theological context of “woman”, “god” and “eat” around 300bc, when the Old Testament was first translated into Greek. At a few keystrokes, the algorithm tapped into one of history’s great intellectual exchanges, between Judaistic theology and Greek literature.

The most compelling number-crunching of this sort has focused on English writing from 1750-1900, thanks to that era’s rapid expansion of printed texts. Such Victorian data-mining has mostly taken place in America. The Stanford Literary Lab was established in 2010. In contrast to “close reading”, by which humans spot nuances on a couple of pages, the lab’s 60-odd contributors have pioneered “distant reading”, by getting computers to detect undercurrents in oceans of text.

An early project dredged through nearly 3,000 British novels from 1785-1900, to examine which types of language had gone in and out of style. The authors, Ryan Heuser and Long Le-Khac, developed a tool called “the Correlator”, which calculates how frequently a given word appeared in each decade, and which other words experienced similar fluctuations. Though the maths was crude, it provided some surprisingly coherent clusters: “elm”, “beech” and “branch” closely tracked “tree”, for example. In order to detect broader trends, the authors then hunted for clusters that demonstrated sustained rises or falls in popularity.


پر بازدیدترین مقالات مجله:

آیا میزان دسترسی به ابزارهای دیجیتال در میان دانش آموزان متفاوت است؟

چگونه نابینایان نقاشی می کشند؟

فرکانس امواج فکری و تاثیر آن در زندگی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *