د معلوماتو نظریه
د معلوماتو نظریه د ډیجیتلي معلوماتو د مقدار کولو، ذخیره کولو او د ارتباط له علمي زده کړې څخه بحث کوي. دا رشته اساساً په ۱۹۲۰ ز کلونو کې د هري نایکویسټ او رالف هارتلي او په ۱۹۴۰ ز کلونو کې د کلوډ شانون د آثارو پرمټ رامنځته شوه. دا څانګه د احتمالاتو تیوري، احصایه، کمپیوټر ساینس، احصایوي میخانیک، معلوماتي انجنیرۍ او د برېښنا انجینرۍ ګډه څانګه ده. [۱][۲]
د معلوماتو په نظریه کې مهم مقیاس انتروپي ده. انټروپي د تصادفي متحول د قیمت یا د تصادفي پروسې په پایله کې د موجود احتمال مقدار اندازه کوي. مثلا د صافې سکې (چې دوې مساوي احتمالي پایلې لري) د اچولو د پایلو تشخیص، د کمسایي (چې شپږ مساوي احتمالي پایلې لري) د اچولو د پایلېو د تشخیص په پرتله لږ معلومات (ټيټه انټروپی) چمتو. د معلوماتو په تیوري کې ځینې نور مهم مقیاسونه، متقابل معلومات، د کانال ظرفیت، د خطا توانونه او نسبي انتروپي دي. د معلوماتو تیورۍ مهمې فرعي برخې عبارت دي له د سرچینې کوډینګ، د پېچلتیا الګورتمي تیوري، د معلوماتو الګورتمي تیوري او د معلوماتو تیوریک امنیت.
د معلوماتو نظریې د اساسي موضوعاتو کارونې د سرچینې کوډینګ / د ډېټا تراکم (مثلا د زېپ فایلونو لپاره) او د کانال کوډینک/ د خطا تشخیص او سمون (مثلا د DSL لپاره) دي. ژورې فضا ته د وویجر د ماموریتونو په بریالیتوب، د سي ډي په کشف، د ګرځنده تلیفونونو په امکان کېدل او د انټرنټ په پراختیا باندې يې ډېرې مهمې اغېزې درلودې. دې تیوري په نورو برخو کې لکه په احصایوي استنباط، کریپټوګرافي، عصبي بیولوژي، ادراک، ژبپوهنه، د مالیکولي کوډونو تکامل او کارکرد (بایو انفورماتیک)، حرارتي فزیک، مالیکولي ډینامیک، کوانتمي محاسبې، تور سوري، د معلوماتو ترلاسه کول، د معلوماتو راټولول، د ادبي غلا تشخیص، د نمونې پېژندنه، د بې نظمۍ تشخیص او حتی د هنر په خلقت کې کارونې لري. [۳][۴][۵][۶][۷][۸][۹][۱۰][۱۱]
کتنه
سمولد معلوماتو نظریه د معلوماتو لېږد، پروسس، استخراج، او کارونه تر بحث لاندې نیسي. په فرضي ډول، معلومات د احتمال د حل لارې په توګه ګڼل کېدای شي. له شور نه په ډک کانال کې د معلوماتو د ارتباط په صورت کې، دا فرضي مفهوم په ۱۹۴۸ کال کې د کلوډ شانون له لوري د ارتباط د ریاضیکي نظریې په نوم په یوه مقاله کې رسمي شو، چې په دې مقاله کې معلومات د ممکنه پیغامونو یوه ټولګه فرض کېږي، او موخه داده چې پیغامونه له شور نه د ډک چینل له لارې واستول شي او پیغام اخیستونکی د چینل د شورماشور ترڅنګ د خطا لږ احتمال سره پیغام بېرته ترلاسه کړي. د شانون اصلي پایلې، د شورماشوري-چینل کوډینګ تیورې وښودله چې د چینل د ډېرې کارونې د محدودیت په صورت کې، د معلوماتو کچه چې په جانبي ډول لاسته راتلای شي، د چینل له ظرفیت سره مساوي ده، هغه کمیت چې یوازې د چینل په احصایه پورې چې پیغامونه په کې استول کېږي، تړاو لري. [۱۲]
د کوډینګ تیوري د روښانه مېتودونو، چې کوډونه بلل کېږي، د موندلو سره تړاو لري، چې په شورماشوري چینلونو کې موثریت زیات کړي او د ډېټا د ارتباط د خطا کچې کمې کړي ترڅو د چینل ظرفیت ته نږدې شي. دا کوډونه تقریباً د ډېټا د تراکم (د سرچینې کوډینګ) او د خطا د اصلاح (د چینل کوډینګ) په تخنیکونو وېشل کېږي. په دوهم حالت کې، د هغو مېتودونو موندولو ډېر کلونه ونیول چې د شانون د کار په پر مټ ثابت او ممکن شول.
د معلوماتو نظریې د کوډونو دریمه طبقه کریپټوګرافیک الګوریتمونه (دواړه کوډونه او رمزي پيغامونه یا شیفرونه) دي. د کوډینګ نظریې او د معلوماتو نظریې مفهومونه، مېتودونه او پایلې په کریپټوګرافي او کریپټوانالیز کې کارول کېږي. د تاریخي کارونو لپاره د بان (واحد) مقاله وګورئ.
سرچينې
سمول- ↑ "Claude Shannon, pioneered digital information theory". FierceTelecom (in انګليسي). بياځلي په 2021-04-30.
- ↑ Shannon, Claude Elwood (1998). The mathematical theory of communication. Warren Weaver. Urbana: University of Illinois Press. ISBN 0-252-72546-8. OCLC 40716662.
- ↑ Burnham, K. P. and Anderson D. R. (2002) Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, Second Edition (Springer Science, New York) ISBN 978-0-387-95364-9.
- ↑ F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. ISBN 978-0262681087.
- ↑ Delgado-Bonal, Alfonso; Martín-Torres, Javier (2016-11-03). "Human vision is determined based on information theory". Scientific Reports (in انګليسي). 6 (1): 36038. Bibcode:2016NatSR...636038D. doi:10.1038/srep36038. ISSN 2045-2322. PMC 5093619. PMID 27808236.
- ↑ cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). "Bayesian inference of phylogeny and its impact on evolutionary biology". Science. 294 (5550): 2310–2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192. S2CID 2138288.
- ↑ Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences". Gene. 215 (1): 111–122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097.
- ↑ Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics". Phys. Rev. 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620.
- ↑ Talaat, Khaled; Cowen, Benjamin; Anderoglu, Osman (2020-10-05). "Method of information entropy for convergence assessment of molecular dynamics simulations". Journal of Applied Physics (in انګليسي). 128 (13): 135102. Bibcode:2020JAP...128m5102T. doi:10.1063/5.0019078. OSTI 1691442. S2CID 225010720.
- ↑ Bennett, Charles H.; Li, Ming; Ma, Bin (2003). "Chain Letters and Evolutionary Histories". Scientific American. 288 (6): 76–81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. خوندي شوی له the original on 2007-10-07. بياځلي په 2008-03-11.
{{cite journal}}
: More than one of|archivedate=
and|archive-date=
specified (help); More than one of|archiveurl=
and|archive-url=
specified (help) - ↑ David R. Anderson (November 1, 2003). "Some background on why people in the empirical sciences may want to better understand the information-theoretic methods" (PDF). خوندي شوی له the original (PDF) on July 23, 2011. بياځلي په 2010-06-23.
- ↑ F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. ISBN 978-0262681087.