ترجمه مقالات

دانلود مقالات ترجمه شده و دریافت رایگان متون انگلیسی

ترجمه مقالات

دانلود مقالات ترجمه شده و دریافت رایگان متون انگلیسی

وب دانلود رایگان مقالات انگلیسی و خرید ترجمه مقالات
کلمات کلیدی

دانلود ترجمه مقالات بازاریابی

تجارت

مقاله ترجمه شده مکانیک

مقاله در مورد تجارت الکترونیک

مقاله انگلیسی رضایت مشتری

مقاله درباره تولید پراکنده (DG)

مبدل منبع ولتاژ

مقاله در مورد سفته باز

مقاله در خصوص بنیادگرایان

مقاله انگلیسی حباب احتکار

مقاله انگلیسی بازارهای کارا

بانکداری و امور مالی

مقاله در مورد تحقیقات بتزاریابی آسیا

مقاله انگلیسی جهانی سازی

دانلود مقاله در مورد رفتار مصرف کننده

دانلود مقاله تحقیقات بازاریابی بین المللی

مقاله روابط کاهندگی موج برشی و ویسکوزیته گوشته

مقاله درباره توموگرافی امواج سطحی

مقاله در خصوص درجه حرارت گوشته

دانلود مقاله ضخامت لایه لیتوسفر

ترجمه مقالات زمین شناسی

مقاله درباره رضایت مالیات دهنده

مقاله در خصوص تحلیل عامل درجه دوم

مقاله انگلیسی کیفیت اطلاعات

دانلود کیفیت سیستم

دانلود مقاله سیستم ثبت مالیات آنلاین

مقاله درباره اجرای عملیاتی

مقاله در خصوص مطالعه رویداد

مقاله انگلیسی برون سپاری منابع انسانی اداری

مدیریت منابع انسانی

۶۳ مطلب با موضوع «مقالات ترجمه شده :: کامپیوتر» ثبت شده است

عنوان اصلی لاتین : Classification Of Violent Web Images using Context Based Analysis


عنوان اصلی فارسی مقاله: طبقه‌بندی تصاویر نامناسب وب با استفاده از تحلیل مبتنی بر متن.


مرتبط با رشته های : فناوری اطلاعات و کامپیوتر


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 14 صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید

عنوان انگلیسی مقاله: Classification Of Violent Web Images using Context Based Analysis
عنوان فارسی مقاله: طبقه‌بندی تصاویر نامناسب وب با استفاده از تحلیل مبتنی بر متن.
دسته: فناوری اطلاعات و کامپیوتر
فرمت فایل ترجمه شده: WORD (قابل ویرایش)
تعداد صفحات فایل ترجمه شده:
ترجمه ی سلیس و روان مقاله آماده ی خرید می باشد.
_______________________________________
چکیده ترجمه:
توسعه‌ی وب با ازدیاد محتوای نامناسب در صفحات آن همراه بوده است. ما با بررسی تصاویر وب، می‌خواهیم یک روش جدید برای طبقه‌بندی آن‌ها ارائه دهیم. این موضوع از اهمیت بالایی برخوردار است زیرا کاربرد بسیاری در اغلب برنامه‌ها مثل فیلترینگ سایت‌های نامناسب وب دارد. بنابراین، ما روی استخراج ویژگی‌های تصاویر از صفحات وب تمرکز می‌کنیم. همچنین، مقایسه‌ای روی تکنیک‌های مختلف داده‌کاوی برای طبقه‌بندی تصاویر نامناسب وب خواهیم داشت. نتایجی که بدست آوردیم نشان می‌دهند روش ما می‌تواند به طور کارایی محتوای نامناسب را تشخیص دهد.
مقدمه:
اینترنت هر روز برای همگان مهم و مهم‌تر می‌شود زیرا یکی از جدیدترین و رو به رشدترین رسانه‌ها است و مطمئناً رسانه‌ی آینده نیز خواهد بود. با این حال، همانند هر اختراع جدیدی در علم و تکنولوژی، اینترنت نیز کاستی‌هایی دارد. وقتی در اینترنت می‌گردیم، دسترسی به سایت‌هایی با محتوای متنازع مثل محتوای خشن و نامناسب آسان است. در واقع، اینترنت بعد کاملاً جدیدی به مسئله‌ی خشونت رسانه اضافه کرده است. نوجوانان با خشونت در اینترنت مواجه هستند از سایت‌های بی‌رحم و کم عمق گرفته تا نمایش‌های مزاحم برای آزار و اذیت افراد. امروزه کودکان و نوجوانان می‌توانند غزل‌های موسیقی نامناسب (شامل سروده‌هایی که از آهنگ‌ها گرفته شده و در دست‌فروشی‌ها فروخته می‌شود) را از اینترنت دانلود کنند و به تصاویر و ویدئو کلیپ‌های نامناسب تنها با یک کلیک ماوس دسترسی پیدا کنند.
پیدایش محتوای خشن در سطح وب، ضرورت ساخت سیستم‌های فیلترینگ که برای امن‌سازی دسترسی به اینترنت به کار می‌رفت را آشکار کرد. در این مقاله، ما روی این مسئله تحقیق می‌کنیم و روش جدیدی برای طبقه‌بندی تصاویر نامناسب وب ارائه می‌دهیم. ما کارمان را روی استفاده از ویژگی‌های تصاویری که به طور خودکار از صفحه‌ی وب گرفته شده منعطف می‌کنیم تا متوجه شویم کدام تصویر مربوط به طبقه‌ی تصاویر نامناسب است. یک مقایسه‌ی کوتاه نیز روی روش‌های مختلف داده‌کاوی خواهیم داشت.

جهت دانلود محصول اینجا کلیک نمایید

بخشی از مقاله انگلیسی

The text surrounding an image on a Web page maybe relevant [10], [3]. Yet, assigning surrounding textsto images is a challenging problem.  When a Webpage contains many images, it is ambiguous to iden-tify which part of the text describes this or that image.Indeed, there is no predefined or dominant way to ar-range images and captions. Sometimes people attachcaptions before images, some other time after or elseboth ways . They can also use a table to arrange im-ages and captions. Despite of this heterogeneity, manyresearchers assume that all images in their collectionfollow a specific arrangement scheme and they define“nearness” as the nearness in the source HTML file.Consequently, when the final presentation of a page ina browser is different from its arrangement in its sourceHTML file, these approaches fail

عنوان اصلی لاتین : Comparative Study of Web 1.0, Web 2.0 and Web 3.0


عنوان اصلی فارسی مقاله: مطالعه ی مقایسه ای وب1وب2 و وب3.


مرتبط با رشته های : فناوری اطلاعات و کامپیوتر


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 7 صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید

_______________________________________
بخشی از ترجمه:
وب بیشتر و بیشتر برای برقراری ارتباط استفاده می شود. واسط های برنامه ریزی شده ی ساخته شده به عنوان مراجعه کننده خدمات وب در دسترس هستند . امروزه بیشتر افراد  به سختی می توانند تصور کنند که بدون اینترنت زندگی کنند . اسناد وب به صورت  یک داده ی وب شکل داده شده اند. موج معنایی سه مرحله از رشد اینترنت را در بر میگیرد. مرحله اول , وب1.0 در مورد اتصال و دریافت اطلاعات در شبکه بود. وب 2.0 در مورد اتصال مردم و قراردادن "من" در رابط کاربر , و"ما" در وب سایت مشارکت اجتماعی است .  مرحله بعدی ، وب 3.0 ، در حال حاضر شروع شده است . این به معنی اتصال دانش وقرار دادن آنها برای کارهایی است که تجربه ما را از اینترنت بیشتر، مفید و لذت بخش می کند.
کلمه های کلیدی:وب جهانی، وب 1.0 ، وب2.0 ، وب3.0 ، سرویس های وب ، فناوری وب ، برنامه وب
مقدمه:
وب سرویس یک سیستم نرم افزاری طراحی شده است تا تعاملات کامپیوتر به کامپیوتر را بر روی اینترنت پشتیبانی کند. وب سرویس ها جدید نیستند و معمولا از یک رابط برنامه نویسی کاربردی گرفته می شوند (API) . در جهان امروز رقابت شدید در مقابل کسب و کار ، تبادل اطلاعات و ارتباط موثر ،نیاز روز است . وب منبع مهمی است که به طور فزاینده ای رشد میکند و در بسیاری از جنبه های زندگی می باشد: آموزش، استخدام، دولت، تجارت، مراقبت بهداشتی، سرگرمی و ... . وب یک سیستم پیوند داخلی است ، اسناد ابرمتن از طریق اینترنت در دسترس می باشند. 
وب در سال 1989 توسط آقای تیم برنرزلی ، کار در سرن (سازمان اروپایی برای تحقیقات هسته ای ایجاد شده بود) در ژنو ، سوئیس ایجاد شد . از آن پس ، برنرزلی نقشی فعال در هدایت توسعه استانداردهای وب داشت. 
وب 1.0 دوره ای که مردم می توانستند فکر کنند که نت اسکیپ مدعی برای تاج صنعت رایانه بود . وب 2.0 دوره ای است که مردم به این واقعیت می رسند که این نرم افزار نیست که وب را توانا ساخته بلکه مهم سرویس هایی است که روی وب تحویل داده میشوند. تکنولوژی های جدید،جستجوی آنلاین هوشمندتر را موجب می شود و ممکن است حتی مقدمه ای بر وب3.0 باشد. 
2.وب 1.0
در وب 1.0 ، تعداد کمی از نویسندگان برای تعداد زیادی از خوانندگان صفحات وب را ایجاد می کردند. در نتیجه ، مردم میتوانستند اطلاعات را با رفتن به منبع به طور مستقیم دریافت کنند. وب 1.0 یک سیستم پیوند داخلی است ، اسناد ابرمتن از طریق اینترنت در دسترس هستند . 

جهت دانلود محصول اینجا کلیک نمایید

بخشی از مقاله انگلیسی
The web offers so many opportunities to people with disabilities that are unavailable through anyother medium. It offers independence and freedom. However, if a web site is not created with webaccessibility in mind, it may exclude a segment of the population that stands to gain the most fromthe internet. Most people do not intend to exclude people with disabilities. As organizations anddesigners become aware of and implement accessibility, they will ensure that their content can beaccessed by a broader population.The Semantic Web (Web 3.0) promises to “organize the world’s information” in a dramatically morelogical way than Google can ever achieve with their current engine design. This is specially truefrom the point of view of machine comprehension as opposed to human comprehension.The SemanticWeb requires the use of a declarative ontological language like OWL to produce domain-specificontologies that machines can use to reason about information and make new conclusions, notsimply match keywords. The effects of Web 2.0 are far-reaching. Like all paradigm shifts, it affectsthe people who use it socially, culturally, and even politically. One of the most affected groups is the


عنوان اصلی لاتین : Violence Video Detection by Discriminative Slow Feature Analysis


عنوان اصلی فارسی مقاله: تشخیص خشونت ویدئو با استفاده از تحلیل خصوصیات آرام.


مرتبط با رشته های : روانشناسی - فناوری اطلاعات و کامپیوتر


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 9 صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید

_______________________________________
بخشی از ترجمه:
امروزه اینترنت، اشتراک‌گذاری انواع اطلاعات را برای همگان آسان کرده است. با این حال، محتوای خشن در وب تأثیر زیان‌آوری روی کسانی که قدرت قضاوت درست را ندارند مخصوصاً نوجوانان می‌گذارد. این مقاله، روشی را برای تشخیص خشونت در ویدئو ارائه می‌کند، این روش تحلیل ویژگی آرام تبعیضانه  (D-SFA) را معرفی می‌کند تا یادگیری توابع ویژگی آرام از انبوه صحنه‌ها در ویدئو انجام گیرد. پس از آن با توابع ویژگی آرام یادگیری شده‌، ویژگی‌های بدست آمده‌ی انباشته‌ی مربعی شکل  (ASD) برای ارائه‌ی ویدئو استخراج می‌شوند. در نهایت، یک ماشین برداری پشتیبان خطی (SVM) برای طبقه‌بندی آموزش می‌بیند. ما همچنین یک دیتاست ویدئوی خشن  (VV) با 200 نمونه‌ی خشونت‌آمیز و 200 نمونه‌ی بدون خشونت جمع‌آوری شده از اینترنت و فیلم‌ها ساخته‌ایم. نتایج تجربی روی دیتاست جدید، کارایی روش پیشنهادی را نشان می‌دهد.
مقدمه:
با رشد سریع وبسایت‌های شبکه اجتماعی مثل فیس‌بوک، توئیتر و یوتیوب، ویدئوهای زیادی هر روز آپلود می‌شود. همانطور که ما از اطلاعات مفید این سایت‌ها لذت می‌بریم، برخی ویدئوهای حاوی خشونت نیز توسط کاربران قابل دسترسی هستند. در افرادی که قدرت قضاوت صحیح ندارند مثل کودکان و نوجوانانی که در معرض این محتوا هستند ممکن است منجر به رفتارهای خشونت آمیز شود یا حتی آثار جرم در آن‌ها با تقلید از آنچه در این فیلم‌ها دیده‌اند آشکار شود. بنابراین واضح است که نیاز به محافظت از چنین گروه‌های حساس جامعه با استفاده از تشخیص دهنده‌های اتوماتیک، کارا و مؤثر امری ضروری است.
با وجود اینکه تشخیص خشونت موضوع داغی در بینایی کامپیوتر نیست اما امری بسیار مهم است. برخی روش‌ها تاکنون برای حل این مسئله پیشنهاد شده است. در [1] نویسندگان از هشت ویژگی رادیویی در زمینه‌ی زمان و فرکانس به عنوان ورودی دسته‌بندی کننده‌ی باینری استفاده کرده‌اند که محتوای ویدئو را با توجه به میزان خشونت در آن اندازه شناسایی می‌کند. سپس آن‌ها کار خود را با استفاده از شبکه‌های بیزین  به مسئله‌ی طبقه‌بندی چند کلاسه تعمیم داده‌اند.

جهت دانلود محصول اینجا کلیک نمایید

بخشی از مقاله انگلیسی
To our knowledge, there is not a well-known public database for violence detec-tion. To evaluate the performance of our approach, we collect 200 violence videosand 200 non-violence videos from movies and the Internet to form a datasetnamed the Violence Video (VV) dataset.The videos cover a wide range of cate-gories, e.g., news, surveillance scenes, sports, movie scenes, etc. The duration ofeach video is generally less than 60s and the resolution has been normalized to320×240 pixels. Key frames representing samples of violence and non-violencevideos are shown in Fig. 3, respectively. For the research purpose, the VV datasetwill be published online soon.

عنوان اصلی لاتین : Violent Web images classification based on MPEG7 color descriptors


عنوان اصلی فارسی مقاله: طبقه‌بندی تصاویر خشونت‌آمیز وب بر اساس توصیف‌ کننده‌های رنگ MPEG7.


مرتبط با رشته های : روانشناسی - کامپیوتر و فناوری اطلاعات


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 15 صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید

_______________________________________
چکیده ترجمه:
در این مقاله، روش طبقه‌بندی تصاویر خشونت‌آمیز وب را ارائه می‌کنیم. این موضوع بسیار مهم است زیرا کاربرد بسیاری در زمینه‌های مختلف مثل فیلتر کردن وب‌سایت‌های خشونت‌آمیز دارد. ما پیشنهاد ترکیب تکنیک‌های تحلیل تصویر و داده‌کاوی را می‌دهیم تا خصوصیات سطح پایینی که از رنگ‌های تصاویر استخراج شده را به خصوصیات خشن بالاتر موجود در تصویر مرتبط کنیم. مقایسه‌ای نیز روی تکنیک‌های مختلف داده‌کاوی خواهیم داشت تا بتوانیم تصاویر خشن وب را دسته بندی کنیم. همچنین، توضیح می‌دهیم که ترکیب روش‌های یادگیری چگونه روی دقت کار تأثیر می‌گذارد. نتایج ما نشان می‌دهد که این روش می‌تواند محتوای خشن را به طور کارایی تشخیص دهد.
مقدمه:
شبکه‌ی گسترده‌ی جهانی (WWW) روی همه‌ی جنبه‌های جامعه شامل تجارت، علوم، سیاست و دولت، روابط فردی و سلامتی تأثیر زیادی داشته است. با این حال، وب روند نزولی داشته است. در حین گشت و گذار در اینترنت دسترسی به محتوای نزاعی مثل محتواهای خشونت‌آمیز آسان است. در واقع، کودکان در معرض شدید خشونت در اینترنت هستند؛ از سایت‌های کم‌عمق با حالت‌های بیرحمانه گرفته تا نمایش‌های مزاحمت‌آمیز شکنجه و آزار. امروزه کودکان و نوجوانان می‌توانند موزیک‌های خشن و ویدئو کلیپ‌ها و تصاویر خشن را با یک کلیک ماوس از اینترنت دانلود کنند. افراد جوان نیز از وب برای سیاحت استفاده می‌کنند و خلاقیت خود را به روش‌های مختلفی با ساختن فیلم‌ها، موزیک، وب‌سایت و بلاگ‌ها یا خاطرات آنلاین نشان می‌دهند.
کار اولیه‌ی ما یک سیستم فیلتر و شناسایی محتوای خشن وب به نام WebAngels filter را پیشنهاد می‌دهد که از تحلیل‌های ساختاری و زمینه‌ای استفاده می‌کند. ابزار ارزیابی ما کارایی روش را برای شناسایی و فیلتر صفحات خشن وب  نشان می‌دهد. با این وجود WebAngels filter با مشکلاتی در طبقه‌بندی سایت‌های خشن که فقط دارای محتوای خشن گرافیکی هستند مواجه است. در این مقاله، این مسئله را بررسی کرده و یک روش جدید طبقه‌بندی تصاویر خشن پیشنهاد می‌دهیم. ما روی استفاده از توصیف‌کننده‌های رنگ و ترکیب طبقه‌بندها تمرکز می‌‌کنیم تا دقت طبقه‌بندی تصاویر خشن وب را بهبود بخشیم. 
ادامه‌ی مقاله به این ترتیب سازماندهی شده است: در بخش 2 مروری روی کارهای انجام شده داریم. روش پیشنهادی برای طبقه‌بندی تصاویر خشن وب در بخش 3 ارائه می‌شود. نتایج ارزیابی و مقایسه‌ها در بخش 4 بحث می‌شود.

جهت دانلود محصول اینجا کلیک نمایید

بخشی از مقاله انگلیسی

Among the supervised learning methods, we cite the Sup-port Vector Machine (SVM) used by Zhang et al. to catego-rize images judged relevant and irrelevant by the user in arelevance feedback retrieval system [6]. Vailaya et al. useda binary Bayesian classifier, high-level concepts of naturalscenes are captured from low-level image features. Databaseimages are automatically classified into general types as in-door/outdoor, and the outdoor images are further classifiedinto city/landscape... [7]. In [8], the authors use a neuralnetwork to establish links between low-level features extractedfrom images regions and 11 concepts. Besides the algorithmsmentioned above, decision tree are also used to derive semanticfeatures. For example, Sethi et al. use the CART algorithm toderive decision rules mapping global color distribution ( HSVspace color histogram) in a given image to textual description( four keywords: Sunset, Marine, Arid images and Nocturne).[2]. In [9], C4.5 was used to build a decision tree based on aset of images relevant to the query, and then used as a modelto classify database images into two classes: relevant andirrelevant. This algorithm is used in the Relevance Feedbackloop to provide relevant images for the user to label at nextiteration. A similar methodology is employed on [10] wherethe ID3 decision tree has been used to classify the images asrelevant/irrelevant based on their color features,

عنوان اصلی لاتین : When Private Set Intersection Meets Big Data: An Efficient and Scalable Protocol


عنوان اصلی فارسی مقاله: وقتی اشتراک مجموعه‌ی خصوصی با کلان داده‌ها مواجه می‌شود: یک پروتکل کارا و مقیاس‌پذیر.


مرتبط با رشته های : فناوری اطلاعات و کامپیوتر


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 31 صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید

_______________________________________
بخشی از ترجمه:
پردازش داده‌های حجیم، چالش‌های جدیدی در طراحی پروتکل‌های حفظ حریم به وجود آورده است. چگونه نیازمندی‌های رو به رشد در سرعت و عملکرد را در برنامه‌های مدرن برآورده کنیم و چگونه وقتی اطلاعات حفاظت شده زیاد است مقیاس را به آرامی بالا ببریم. کارایی و مقیاس‌پذیری معیارهای مهمی برای پروتکل‌های حفظ حریم در عصر کلان داده‌ها شده‌اند. در این مقاله، ما یک پروتکل اشتراک مجموعه‌ی اختصاصی جدید ارائه می‌دهیم که نسبت به پروتکل‌های موجود بسیار کارا و مقیاس‌پذیر است. این پروتکل بر اساس روش جدیدی کار می‌کند که آن را «اشتراک بلوم فراموشکارانه» می‌نامیم. این روش پیچیدگی خطی دارد و عموماً بر اساس عملیات کلید مشترک کار می‌کند. همچنین مقیاس‌پذیری زیادی دارد زیرا اکثر عملیات به راحتی موازی سازی می‌شوند. پروتکل دو نسخه دارد: یک پروتکل اصلی و یک پروتکل بهبود یافته. امنیت این دو گزینه، تحلیل و در مدل نیمه معتمد و مدل بدخواه ثابت شده است. یک نمونه‌ی اولیه از پروتکل اصلی ساخته شده است. ما نتایج ارزیابی کارایی را گزارش داده و آن‌ها را با پروتکل‌های PSI سریع قبلی مقایسه می‌کنیم. پروتکل ما چندین برابر سریع‌تر از این دو پروتکل است. پروتکل ما برای محاسبه‌ی اشتراک مجموعه‌هایی با دو میلیون جزء، فقط به 41 ثانیه (امنیت 80 بیتی) و 339 ثانیه (امنیت 256 بیتی) یا سخت‌افزار متوسط در به صورت موازی نیاز دارد.
مقدمه:
در بسیاری از کشورها، محافظت از حریم داده‌ها اختیاری نیست بلکه یک وظیفه‌ی قانونی است. قانون‌گذاری شامل قوانین حریم US (HIPPA، COPPA، GLB، FRC و ...)، رهنمودهای حفاظت از داده‌های اتحادیه‌ی اروپا و قوانین خاص حریم ملی است. این امر برای سازمان‌ها کمی دشوار است زیرا باید از داده‌ها حین استفاده و انتقال محافظت کنند. برای حل این معضل، راه‌حل‌های امنیتی بسیاری پیشنهاد شده است تا پردازش داده‌های حافظ حریم خصوصی را انجام دهد. با این حال، میزان داده‌های نیازمند پردازش و محافظت هر روز بیشتر می‌شود. برای مثال، نسل‌شناسان نیاز به جستجوی 3 میلیارد ژنوم شخصی دارند تا بتوانند مشکلات ژنتیکی که عامل دیابت و سرطان را پیدا کنند. متخصصان اپیدمیولوژی باید پایگاه‌داده‌های پزشکی زیادی را که حاوی میلیون‌ها مدارک بیماران هستند را بررسی کنند تا عوامل خطر بیماران را شناسایی کنند. فروشنده‌های آنلاین نیز باید هزاران تراکنش را با فعالیت‌های شبکه‌ی اجتماعی مشتریان به اشتراک بگذارند تا رضایت مشتری را افزایش دهند.

جهت دانلود محصول اینجا کلیک نمایید


بخشی از مقاله انگلیسی

Our PSI protocol has two versions: a basic protocol, security of which can be proved in thesemi-honest model, and an enhanced protocol, security of which can be proved in the mali-cious model. The basic protocol has linear complexity (witha small constant factor) and reliesmostly on symmetric key operations. It is fast even with large input sets, and when the secu-rity parameter increases, the performance degrades gracefully. Test results show it is orders ofmagnitude faster than the previous best protocols. The enhanced protocol is an extension of thebasic protocol, that only increases the cost by a factor proportional to the security parameter.Apart from efficiency, another big advantage of the protocolis scalability: the computational,memory and communication complexities are all linear in thesize of the input sets. Moreattractively, most operations in the protocol can be performed in the SPMD (single program,multiple data) fashion, which means little effort is required to separate the computation intoa number of parallel tasks. Therefore it can fully take the advantage of parallel processingcapacity provided by current multi-core CPUs, GPGPUs (General-purpose graphics processingunit) and cloud computing. As a result, the protocol is particularly suitable for Big Data orientedapplications that have to process data in a parallelized and/or distributed way.

عنوان اصلی لاتین : IP Based Smart Services: Combining Big Data and Networking to Create Innovative New Applications 


عنوان اصلی فارسی مقاله: آی پی مبتنی بر خدمات هوشمند: ترکیب داده شبکه بزرگ و ایجاد نرم افزار جدید


مرتبط با رشته های : کامپیوتر - فناوری اطلاعات


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 10 صفحه


کلمات کلیدی مربوطه با این مقاله: شبکه داده های بزرگ ، مدیریت شبکه، فن آوری های هوشمند، پروتکل اینترنت


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید


_______________________________________
بخشی از ترجمه:
آی پی مبتنی بر خدمات هوشمند در نتیجه درخواست بزرگ تجزیه و تحلیل سبک داده ها در شبکه اطلاعات داخل جهت بهبود و تقویت شبکه  بوجود آمده است . این پیشرفت شامل تغییراتی در زمینه اطلاعات جمع آوری شده  می باشد و همچنین مجددا مورد استفاده قرار می گیرد . تغییرات در جمع آوری داده ها را قادر می سازد تا  برنامه های هوشمند جدید  ارائه کنند .  تغییرات در شرایط شبکه ، قبل از آنها رخ می دهد (پیش بینی) و حتی به دنبال ایجاد تغییرات قبل از آنها می باشد که این  به یک موضوع یا نگرانی (فعال) تبدیل شده است. برنامه های کاربردی دیگر به دنبال افزایش یکپارچگی بین شبکه های معمولی و سیستم های موجود مانند زنجیره تامین و یا کنترل شرایط می باشند . در نهایت، برنامه های امنیتی از خدمات هوشمند مورد بحث از جمله رمزنگاری و تشخیص حمله برخوردار می باشند .

1. مقدمه
در  شبکه های پیچیده تر ،  حجم ترافیک همچنان  به سرعت در حال افزایش می باشد ، توانایی  درک نیازهای استفاده، و عملکرد یک شبکه ، هرگز بیشتر از این نمی باشد . با این حال این به معنی تمامی موارد نمی باشد . در عصر داده های بزرگ ، نظارت ساده  بر این اطلاعات کافی نمی باشد . شرکت های شبکه مانند سیسکو متوجه شده اند که این اطلاعات پتانسیل واقعی خود را  دارند و اطلاعات ابزار قدرتمند جدید نمی تواند در آنها تغییری ایجاد کند . 

جهت دانلود محصول اینجا کلیک نمایید

بخشی از مقاله انگلیسی

There are two important ways that NetFlow is being advanced. These involve increasing the scope of networks12/20/13IP Based Smart Serviceswww.cse.wustl.edu/~jain/cse570-13/ftp/smartsvc/index.html4/11which can be monitored using the tool and increasing the level of analytics performed by the collector server.These two approaches are almost entirely separate in their purpose - one is trying to massively increase thescope of the data to perform analytics while the other is decreasing the scale to try to get more fine-grainedinsight into the traffic.As mentioned above NetFlow is limited to certain expensive hardware tools that probe the network data. Thishardware was often confined to core networks or very large edge services. Recently tools have been made tobring a form of NetFlow analytics to smaller domains and allow more widespread use of its monitoring. In 2011NetFlow lite was introduced. It removes the ASIC hardware requirement and allows NetFlow to monitor amassive new set of data sources. Smaller organizations which cannot implement expensive routers can nowreceive the benefits of this robust collection tool, but the complete opposite benefits also. This allows NetFlow topenetrate deep into data centers where space constraints made implementing NetFlow specific routers difficult.In some cases it can even be used to monitor L2 switches in addition to L3 traffic. This increase in data availablefor monitoring increases the accuracy of existing applications but could allow entirely new services whichexclusively monitor in the data enters but correlate with outside services. [Deri11] [nTop11]

عنوان اصلی لاتین : Towards the Future Internet – An Overview of Challenges and Solutions in Research and Standardization


عنوان اصلی فارسی مقاله: به سوی آینده اینترنت - بررسی اجمالی از چالش ها و راه حل ها در تحقیقات و استاندارد


مرتبط با رشته های : کامپیوتر - اینترنت


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: چهار صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید


_______________________________________
قسمتی از ترجمه:
هدف اساسی برای توسعه اینترنت اتصال ساده و ارزان از گره به ارائه خدمات مانند دانلود فایل ها و یا ایمیل می باشد . با این حال، با توجه به رشد عظیم و محبوبیت آن، پروتکل های کلاسیک - که هنوز هم اساس اینترنت امروز را تشکیل می دهند - محدودیت  ها  از مقیاس پذیری و قابلیت  می باشد . بسیاری از پژوهش ها به منظور غلبه بر این محدودیت انجام می شود. در این ارائه ما، دوست داریم که به بررسی چالش ها در شبکه، حمل و نقل، جلسه و لایه کاربردی، و همچنین به عنوان یک طرح کلی از راه حل های که در سال 2008 و با توجه به پیشرفت های استاندارد از IETF از دیدگاه فعلی تشکیل شده بپردازیم  اساس اینترنت در سال 2020 شکل می گیرد.
2. چالش های لایه شبکه
در لایه شبکه، فضای آدرس IPv4 بیش از حد کوچک و همچنین پارتیشن بندی سرب ناکارآمد خود را به جداول مسیریابی بیش از حد طولانی و مسیریابی گران دارد . و طراحی شده است برای غلبه بر این محدودیت ها می باشد  یکی از ویژگی های خاص از IPv6 است که هر نقطه دارای آدرس های چندگانه (احتمالا با حوزه های مختلف) می باشد.

جهت دانلود محصول اینجا کلیک نمایید

بخشی از مقاله لاتین

II.  NETWORKLAYERCHALLENGES
On   the   Network   Layer,   a   too   small   IPv4   addressspace as well as its inefficient partitioning lead to overlylong  routing  tables  and  expensive  routing.  IPv6  [1]  hasbeen designed to overcome these limitations. A particularfeature  of  IPv6  is  that  each  endpoint  possesses  multipleaddresses  (possibly  with  different  scopes).  Furthermore,the  existing  IPv4  infrastructure  will  still  have  a  longlifetime  –  and  each  endpoint  will  also  have  an  IPv4address  unless  (almost)  every  host  has  been  made  IPv6-capable.  That  is,  future  hosts  will  bemulti-homed,  i.e.reachable  under  different  addresses  and  even  NetworkLayer  protocols.  This  property  –  and  its  utilization  fora better service – becomes a challenge for the TransportLayer (see section III).A particularly important IPv6 feature is to easily allowfor  site-renumbering  by  its  auto-configuration.  A  siterenumbering means to change the prefix (i.e. the networkaddress). Unlike IPv4 – where assigned network addressesare  transferred  on  provider  changes,  leading  to  largebackbone  routing  tables  –  this  also  puts  challenges  onthe Transport Layer.Recent  advances  on  the  Network  Layer  are  not  re-stricted to the routed protocols, also the routing procedureitself is improved. While the foundation of the Internet hasbeen stateless packet forwarding due to scarce resources,future generations of routers will be powerful enough toperformflow  routing[2].  Having  a state  for  each  routedflow, applying Quality of Service (QoS) [3] mechanisms



عنوان اصلی لاتین : Coupled model for the non-linear analysis of anisotropic sections subjected to general 3D loading

Part 1: Theoretical formulation


عنوان اصلی فارسی مقاله: مدل ترکیبی برای تحلیل غیر خطی بخش های ناهمسان مربوط به بار کشش سه بعدی (3D) کلی - بخش اول: فرمول تئوری


مرتبط با رشته های : سازه ها - کامپیوتر


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 33 صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید


بخشی از ترجمه:
مدل عددی برای تحلیل ترکیبی بخش های مقطعی با شکل دلخواه حاصل از مواد ناهمسان و ناهمگن تحت بار کشش ترکیبی سه بعدی درست شده است؛ فرمول بندی می شود. این نظریه به طور کامل از ملاحظات تعادلی مشتق شده است و بر پایه انطاق انحراف بخش های سه بعدی و فرضیه بخش سطح قدیمی استوار است. صفات و خصوصیات سه بعدی همانند ماتریس سختی بخش (seetion stiffiness) که تاثیرات ترکیبی بین نیروهای نرمال و مماسی را به علت ناهمسانی کروی ماده انعکاس می دهند، بدست می آید. کرنش و تنش های قدیمی به عنوان متغیرهای ورودی و خروجی نگهداری می شوند. مدل مفروض به صورت یک قانون ساختاری برای المان های فریم در تحلیل یک ساختار کامل مناسب است. 
1- مقدمه
سیاری از المان های ساختاری هدفی برای ترکیب نیروهای محوری و برشی و خمیدگی و پخشی هستند. برای ره گیری دقیق پاسخ چنین اعضایی بایستی تعال بین نیروهای مماسی و نرمال در نظر گرفته شود، مخصوصاً اگر شکست، خمیدگی و شکستگی یا سایر خواص غیر خطی ماده روی دهد. 
بسیاری از مول های تحلیل کنونی توانایی دریافت نتایج ترکیبی بر پایه فرمول های المان محدود دو بعدی (2D) و سه بعدی (3D) را دارند که زمان بوده و به طور کلی برای استفاده در مسائل مهندسی مناسب نیستند. از طرف دیگر فرمول های مهندسی بر پایه المان های تیروستون (beam- column) که از مفهوم برش مقطعی استفاده می کنند و با نیروهای تعمیم یافته و تبدیلات رفتار می کنند به طور کلی زمانی که پدید غیر خطی منظور می شود نتایج ترکیبی ذکر شده لحاظ نمی شود. 

جهت دانلود محصول اینجا کلیک نمایید



قسمتی از مقاله انگلیسی

Yu et al.[16]developed a cross sectional model for theanalysis of composite cross sections under 3D loadingbased on a variational asymptotic solution. The compositematerial is considered as elastic-orthotropic and the crosssections analyzed are composite lamina assemblies mostlyemployed in the aeronautical industry. The model is capa-ble of obtaining a 3D stress state from a sectional analysis.However, non-linear behavior was not considered.It  is  well  known  that  cracked  concrete  exhibitsanisotropic behaviour, so called crack-induced anisotropy.Post-cracking coupling between shear related forces (tor-sion and shear forces) and axial related forces (axial forceand bending moments) takes place, as reported by Hsu[4].Fig. 1shows a representation of this phenomenon. Ifa concrete section is subjected to torsion, and diagonalcracks develop, the stresses in the two principal directionscan no longer be of identical magnitude, the compressionstress is then greater than the tensile one. Therefore, a shearstress can not be sustained unless volumetric compressionis supplied by the reinforcement. Coupling between tangen-tial and normal forces occurs and the equilibrium condi-tions among fibers have to be satisfied in the threedimensions.

عنوان اصلی لاتین : Mining fuzzy association rules from low-quality data


عنوان اصلی فارسی مقاله: استخراج قوانین انجمن فازی از اطلاعات با کیفیت پایین


مرتبط با رشته های : فناوری اطلاعات - کامپیوتر - داده کاوی


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 30 صفحه


کلمات کلیدی مربوطه با این مقاله: داده کاوی ، قوانین انجمن فازی ، اطلاعات با کیفیت پایین


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید

_______________________________________
بخشی از ترجمه:
چکیده – استخراج اطلاعات معمولاً در تلاش برای القای قوانین انجمن از پایگاه داده استفاده می شود که می تواند به راحتی به تصمیم گیرنده انالیز اطلاعات کمک کند و تصمیمات خوبی با در نظر گیری حوزه های مربوط بگیرد. مطالعات مختلف روش هایی برای قوانین انجمن استخراج از پایگاه داده با ارزش های سطحی پیشنهاد می کند. با این وجود ، اطلاعات در بسیاری از برنامه های کاربردی جهان واقعی یک درجه قطعی نارست است. در این مقاله ما این مشکلات را پیدا کرده ایم و یک الگو ریتم استخراج – داده برای خروج دانش جالب از پایگاه داده به همراه اطلاعات نادرست ارائه نموده ایم. این الگو ریتم پیشنهادی محتوای داده نادرست و الگوریتم استخراج استقرایی فازی جهت یافتن انجمن استخراج در پایگاه داده شده ، جدا می کند. تجربیات تشخصیص نارسایی در درون کودکی اخیر به وجود امده است تا عملکرد الگوریتم پیشنهادی را بازبینی کند.
1- مقدمه 
داده کاوی (DM) پروسه ای برای کشف اتوماتیکی دانش سطح بالا از جهان واقعی ، مجموعه داده پیچیده و بزرگ می باشد. استفاده DM برای تسهیل تصمیم گیری است که می تواند بهبود عملکرد در تصمیم گیری حادث می شود و قادر به غلط گیری انواع مسائلی است که قبلاً آدرس دهی نشده اند (Mladeninetal 2002)
کشف قوانین انجمن یکی از تکنیک داده کاوی است که در این گزارش توضیح داده  شده است.

جهت دانلود محصول اینجا کلیک نمایید

بخشی از مقاله انگلیسی

2  Fuzzy data-mining algorithm for quantitative values
The goal of the fuzzy data-mining algorithm presented byHong et al. (2001) is to find interesting itemsets and fuzzyassociation  rules  in  databases  with  quantitative  values,discovering interesting patterns among them.This method consists of transforming each quantitativevalue into a fuzzy set of linguistic terms using membershipfunctions,  which  assumes  that  the  membership  functionsare  known  in  advance.  The  algorithm  then  calculates  thescalar cardinality of each linguistic term in all the instancesas  the  count  value  and  checks  whether  the  count  of  eachlinguistic  term  is  larger  than  or  equal  to  the  minimumsupport  value  to  put  these  items  in  the  large  itemsetsLr.The mining process, based on fuzzy counts, considers thatthe  intersection  between  the  membership  value  of  eachitem is the minimum operator. Finally, this method obtainsthe  fuzzy  association  rules  by  the  criterion  used  in  theapriori algorithm (Agrawal and Srikant1994).

عنوان اصلی لاتین : Analysis the effect of data mining techniques on database


عنوان اصلی فارسی مقاله: تحلیل تاثیر تکنیک های استخراج داده بر پایگاه داده ها


مرتبط با رشته های : فناوری اطلاعات و کامپیوتر


نوع فایل ترجمه : ورد آفیس(که دارای امکان ویرایش می باشد)


تعداد صفحات فایل ترجمه شده: 17 صفحه


کلمات کلیدی مربوطه با این مقاله: ندارد


برای دریافت رایگان نسخه انگلیسی این مقاله اینجا کلیک نمایید


_______________________________________
قسمتی از ترجمه:
در جامعه ی اطلاعاتی امروز شاهد روند رو به رشد شرکت های الکترونیکی و ذخیره سازی اطلاعات آنها در پایگاه های داده ای بزرگ هستیم. استخراج داده سبب دانش افروزی میشود. استخراج اطلاعات میتواند مفاد بارزشی از پایگاه داده ها آشکار کند که به دانش افروزی و بهبود تجارت هوشمند کمک میکند. در این مقاله به این موضوغات می پردازیم که تکنیک های استخراج داده ای چه تاثیری بر سیستم های پایگاه داده ای دارند، چگونه میتوان با استفاده از آنها به اطلاعات مورد نظر دست یافت، به چه ابزارهایی برای استفاده از آنها نیاز است، طرفداران و منتقدان اصلی آنها چه کسانی هستند. با تمامی این تفاسیر برآنیم تا نشان دهیم چگونه میتوان تکنولوژی استخراج داده ای را در تکنیک های آن گنجاند.
1-مقدمه:
در سال های اخیر استخراج داده به تکنیک بسیار معروفی برای استخراج اطلاعات از پایگاه داده در حوزه های مختلف مبدل شده است که به عوامل گوناگونی من جمله قابلیت دسترسی کاربران به آن و نتایج نشان دهنده آن بستگی دارد. استخراج داده به معنای جستجوی اطلاعات بارزش در حخم وسیع داده ها میباشد.با افزایش دسترسی به پایگاه های داده ای با ساختارهای مشخص، نیاز به تکنیک های استخراج داده که برای این ساختارها طراحی شده اند نیز بیشتر میشود. به جهت کیفیت بهتر نرم افزار، مهندسان نرم افزار الگوریتم های بسیار ی را برای وظایف مهندسی نرم افزارهای مختلف بکار میبرند. دستیابی سریع تر و بهتر به پایگاه داده ها، تحلیل و درک نتایج و همچنین ذخیره سازی داده ها که از حیطه ی توانایی افراد خارج است، دانشمندان و محققان را ترغیب نموده است تا در کشف و ابداع فیلدهای خاش اکتساب دانش در پایگاه های داده ای حرکتی صعودی و روزافزون داشته باشند. حجم اطلاعاتی بالا و عدم توانایی برای درک و فهم فرآیندهایی که سبب ایجاد آنها شده اند باعث استفاده از تکنیک های استخراج داده ای میشود که به این طریق میتوان الگوهای ساختاری گوناگون با مطالب مفید را از پایگاه داده ای استخراج نمود. پایگاه های داده ای بسیار بزرگ هستند و استخراج داده از آنها برای مجموعه های بزرگ بسیار مهم و در عین حال جالب توجه میباشد. 

جهت دانلود محصول اینجا کلیک نمایید



بخشی از مقاله انگلیسی


6. Oracle database
Oracle provides the most complete, open, and unified enterprisecontent management (ECM) platform that enables you to build in asingle repository both high volume imaging applications such asaccounts payable and claims processes as well as high performancedelivery applications, such as consumer-based Web sites. In Oracle,there is a Oracle Exadata Database Machine is the only databasemachine that provides extreme performance for both data ware-housing and online transaction processing (OLTP) applications,making it the ideal platform for consolidating onto grids or privateclouds. It is a complete package of servers, storage, networking,and software that is massively scalable, secure, and redundant.Oracle Data Mining (ODM) embeds data mining within the Oracledatabase. There is no need to move data out of the database into filesforanalysisand then backfrom files into the database forstoring. Thedata never leaves the database – the data, data preparation, modelbuilding, and model scoring results all remain in the database. ThisenablesOracletoprovideaninfrastructureforapplicationdevelopersto integrate data mining seamlessly with database applications.ODM is designed to support production data mining in the Ora-cle database. Production data mining is most appropriate for creat-ing applications to solve problems such as customer relationshipmanagement, churn, etc., that is, any data mining problem forwhich you want to develop an application.ODM provides single-user milt-session access to models. Modelbuilding is either synchronous in the PL/SQL interface or asynchro-nous in the Java interface.