User:Vghadimi2011/sandbox

دانشگاه آزاد اسلامی واحد کرج

پروژه جهت اخذ مدرک کارشناسی پیوسته

عنوان: مروری بر روش های برچسب گذاری تصاویر به روش اتوماتیک

نام و نام خانوادگی دانشجو: وحید قدیمی استاد راهنما: مهندس شبنم اسبقی

نیمسال:دوم  سال تحصیلی:91-92 چکیده در این مقاله ما به بررسی روش های آماری برای برچسب گذاری تصاویر دیجیتال به صورت اتوماتیک می پردازیم. امروزه همزمان با پیشرفت فناوری دوربین های دیجیتال, همچنین کاهش قیمت حافظه و توسعه شبکه های کامپیوتری , پایگاه های داده تصویری نیز به سرعت گسترش یافته اند و هر روزه تصاویر زیادی به روش های مختلف و به دلایل مختلفی تولید می شوند. از اینرو ذخیره و بازیابی تصاویر در پایگاه های داده تصاویر, به یک مسآله مهم و پر اهمیت تبدیل شده است[6]. کلمات کلیدی:statistical approach, annotation image , retrieve 1.مقدمه برای اینکه بتوانیم به اطلاعات چند رسانه ای به صورت موثر و کارا دسترسی داشته باشیم احتیاج به توانایی جستجو و سازماندهی اطلاعات داریم در حالی که جستجو بر پایه کلمات در دسترس تر است و همچنین موتور های جستجو وب برای بسیاری از مردم شناخته شده است تکنولوژی برای جستجوی تصویر و ویدو خیلی پر چالش تر وبحث برانگیز تر به نظر می رسد از اینرو تحقیقات و اندیشه های بسیار بزرگ ای را بر پایه بازیابی تصاویر بر اساس محتویات؛ را به خود اختصاص داده است اما بسیاری از این تحقیقات نیاز به جستجوی کاربر براساس مفاهیمی از قبیل رنگ و بافت را دارد که عموم مردم با این مثال آشناییت ندارند در کل عموم باید تصاویر مورد نظر خود را بر اساس توصیف خود از بافت تصویر جستجو کنند و به این روش تصویر مورد نظر خود را پیدا کنند که این کار بسیار مشکل است, برای نمونه چنین جستجو ای "ببر درون چمن زار" برای بسیاری از سیستم ها جستجوی پیچیده و مشکل و در بسیاری از موارد غیر ممکن است [3]. راه حل سنتی برای اینکار برچسب گذاری تصاویر به صورت دستی است که در این بحث نمی گنجد. برچسب گذاری تصاویر به صورت اتوماتیک را می توان مدل سازی کارهایی که کاربر برای برچسب گذاری تصویر بر مبنای خصوصیات بصری آن انجام می دهد تعریف نمود. امروزه بیشتر سیستم های برچسب گذاری تصاویر بر پایه ترکیبی از آنالیز تصاویر و تکنیک های یادگیری آماری ماشین است. برای بالا بردن دقت بازیابی ، تحقیقات بر طراحی الگوریتم هوشمند برای استخراج خصوصیات سطح پایین برای کاهش گپ های معنایی بین خصوصیات بصری و معانی سطح بالای انسان تمرکز دارد. . برای این منظور روش های برچسب گذاری بازیابی تصاویر براساس محتوا، CBIR (Content Base Image Retrieval) ،ارايه گردیده اند. همچنین این روش با نام هایی از قبیل جستجو بر پایه محتویات تصویر ،(query by image content) QBIC یا بازیابی اطلاعات بصری بر پایه محتویات ،(content base visual information retrieval) CBVIR   شناخته شده است [8]. عبارت CBIR به روش هایی اطلاق می شوند که قادراند با استفاده از مجموعه ای از ویژگی ها (که به صورت خودکار از تصاویر استخراج می شوند)، تصاویر مشابه و مرتبط از نظر مفهوم و محتوا را از پایگاه داده تصویری استخراج نمایند. به عبارت دیگر در اینگونه سیستم ها در مرحله برچسب گذاری ، به صورت خودکار از هر تصویر مجموعه ای از ویژگی ها از قبیل رنگ ، بافت ، الگو در قالب یک بردار ویژگی ، استخراج می گردد سپس در مرحله بازیابی برچسب های تمام تصاویر پایگاه داده براساس یک معیار شباهت با برچسب جستجو شده مقایسه می شوند. هدف از این مرحله استخراج تصاویر مرتبط با تصویر پرس و جو از پایگاه داده است[8].

هدف از برچسب گذاری تصاویر به روش اتوماتیک این است که ما تصویرهایی که می خواهیم برچسب گذاری شوند را بدهیم و تصویر هایمان را در حالی که چندین کلمه کلیدی که بر اساس ویژگی های بصری آنها ، به آنها انتساب شده است دریافت نماییم. استفاده از کلمات کلیدی مرتبط تر به تصویر باعث می شوند فرایند بازیابی تصویر آسان تر شود[6]. فرآیند برچسب گذاری تصاویر به دو دلیل عمده ی زیرکارسخت است[6]: -وجود مشکل گپ های معنایی[6]. -دومین مشکل از فقدان رابطه بین کلمات کلیدی و نواحی تصویر در داده های یادگیری نشأت می گیرد برای هر تصویر کلمه کلیدی تعیین می شود اما این نامشخص است که این کلمه های کلیدی به کدام قسمت از تصویر نسبت داده شده است[6]. 2.برچسب گذاری تصویر به روش اتوماتیک برچسب گذاری تصاویر به روش اتوماتیک (این روش همچنین با نام image auto annotation نیز شناخته می شود) شامل تعدادی تکنیک است که هدف آن پیدا کردن ارتباط بین خصوصیات بصری سطح پایین و مفاهیم سطح بالا است. چالش و مشکل عمده در این روش ایجاد کردن مدلی است که توانایی این را داشته باشد که کلمات کلیدی را که به تصویر بر اساس محتویات تصویر می دهد به صورت موفقیت آمیز تصویر را توصیف کند نقطه شروع برای بسیاری از این الگوریم ها مجموعه یادگیری (training set) است این مجموعه ی یادگیری شامل تصاویری است که توسط انسان برچسب گذاری شده است.همچنین تکنیک های آنالیز تصویر برای استخراج خصوصیات تصویر شامل رنگ ,بافت و شکل مورد استفاده قرار می گیرند تا به وسیله آنها ویژگی های تصویر را بفهمند .خصوصیات تصویر را می توان از کل تصویر یا اینکه از بلاب ها که قسمت های دسته بندی شده تصویر هستند (segmentation approach) یا اینکه از مربع هایی که تصویر را شامل می شوند استخراج نمود. قدم بعدی این است که اطلاعات خصوصیات یکسان را درون تصاویر دیده نشده جمع آوری کنیم تا به این وسیله آن را با مدل هایی که قبلا ایجاد شده مقایسه کنیم نتیجه اینکار احتمال اینکه هر کلمه کلیدی درون یک تصویر وجود داشته باشد را نشان می دهد. شکل 2 بلوک دیاگرام یک ناحیه کاری معمولی برای بر چسب گذاری تصویر را مشخص می کند.

به طور کلی سه ایده مختلف برای برچسب گذاری تصاویر وجود دارد که در ذیل به آنها اشاره خواهد شد. 1-برچسب گذاری تصویر به روش دستی توسط کاربر 2-برچسب گذاری تصویر به روش نیمه اتوماتیک 3-برچسب گذاری تصاویر به روش اتوماتیک. در برچسب گذاری تصاویر به روش دستی نیاز به این هست که کاربران چندین کلمه مشخصه را هنگامی که به جستجو می پردازند وارد کنند. این درحالیست که در برچسب گذاری تصویر به روش اتوماتیک سیستم محتویات معنایی تصویر را شناسایی کرده و متناظر با آن کلمه کلیدی مورد نظر به تصویر نسبت داده می شود. در برچسب گذاری تصاویر به روش نیمه اتوماتیک انسان چندین کلمه کلیدی اولیه را به تصویر نسبت می دهد. مقایسه میان روش های برچسب گذاری تصاویر را در جدول 1 خواهید دید:

بر چسب گذاری تصاویر به روش اتوماتیک زمانبر و هزینه بر است در حالی که بر چسب گذاری تصویر به روش نیمه اتوماتیک خیلی کارا تر و دقیق تر از برچسب گذاری تصویر به صورت دستی است. برچسب گذاری تصاویر به روش از نظر کارایی خیلی کاراست اما از نظر دقت زیاد خوب نیست.در برچسب گذاری تصاویر به روش اتوماتیک سیستم به تصاویر کلماتی را نسب می دهد که فهم صحنه درون تصویر را آسان می کند. تجربه نشان داده است که روش های برچسب گذاری فعلی در هنگام بازیابی دارای کارایی پایین می باشند. 3.ایده های آماری در برچسب گذاری تصاویر به روش اتوماتیک برچسب گذاری تصاویر به روش اتوماتیک را می توان  فرایند مدل سازی تمام کار هایی که انسان برای برچسب گذاری تصاویر به صورت دستی انجام می دهد توسط ماشین تعریف نمود. امروزه بیشتر سیستم های برچسب گذاری تصاویر بر پایه ترکیبی از تکنیک های آنالیز تصاویر و یادگیری آماری ماشین می باشد. برای تصاویری که به روش اتوماتیک برچسب گذاری شده اند مدل های آماری ایده های متداولی هستند که در زیر به آنها می پردازیم: 1-:Co-occurrence model در این مدل ما متدی را برای رابطه بین تصویر و کلمات توصیف می کنیم در این متد ما دو فرایند روبرو هستیم. اولی فرایند تقسیم هر تصویر به چنیدین زیر تصویر یکنواخت با کلمات کلیدی است دیگری فرایند کوانتیزه کردن بردار هر زیر تصویر است.[1] 1-1. تقسیم بندی تصویر,استخراج خصوصیات, و ارث بری کلمات کلیدی در این روش ابتدا هر تصویر به قسمت های مساوی مربعی شکل تقسیم می شوند دلیل اینکه تصاویر را به قسمت های مربعی تقسیم بندی می کنند این است که این روش یکی از ساده ترین و سریع ترین راه های تقسیم کردن تصویر می باشد. تعداد مربع ها درون هر تصویر در رنج 3*3 تا   7*7 می باشد. به صورت موازی با این کار یعنی در همان زمان قسمت بندی تمام کلماتی که به تصویر داده شده است(این تصاویر training set می باشند یعنی اینکه کلمات کلیدی به انه توسط انسان داده شده است.) به قسمت ها به ارث می رسد دلیل اینکار هم به سبب سادگی آن است. سپس خواص وخصوصیت ها از قسمت های تقسیم بندی شده استخراج می گردد[1]. (1)هیستوگرام 4*4*4 رنگ های RGB(red green blue) (2) هیستوگرام8-جهت*4 رزولوشن غلظت پس از sobel filtering که می توان آن را با عملیات های متداول و سریع محاسبه کرد. -خصوصیت(1) به صورت زیر محاسبه می گردد: 1.فضای رنگ های RGB را به 4*4*4 تقسیم می شود. 2.تعداد پیکسل ها در هر bin شمرده می شود. در نتیجه اینکار 64 خصوصیت محاسبه می گردد. -خصوصیت(2) به صورت زیر محاسبه می گردد: برای چهار رزولوشن ( 1,1/2,1,4,1/8) : 1.فیلتر افقی (vertical) < Sy> و فیلتر عمودی(horizontal )  است. 2.برای هر پیکسل آرگومنت 1/tan⁡(Sy/Sx) محاسبه می گردد. 3.آرگومنت را در فضای [-π, π] به هشت قسمت تقسیم بندی می شود. 4.غلظت ها را برای هر پیکسل و هر جهت جمع می کنیم. در نتیجه این کار نیز 32 خصوصیت محاسبه می گردد.در نتیجه کل این کار 96 خصوصیت از قسمت های تصویر محاسبه می گردد[1].

1-2.کوانیزه نمودن بردار خصوصیات بردار ها از قسمت های تصویر استخراج می گردد با استفاده از کوانتیزه کردن بردار ها تمام تصاویر یادگیری شده درون فضای 96 بعدی کلاستر می شوند. در این مقاله کوانتیزه کردن بردار داده مورد استفاده قرار می گیرد. در این متد centroid ها (نشانه ی بردار ها برای هر کلاستر) به صورت افزایشی برای داده های ورودی ایجاد می شود هر کلاستر یک centroid دارد و هر داده به صورت یکتا درون هر کلاستر قرار می گیرد. یک پارامتر کنترلی در این متد نقطه شروع خطا برای کوانتیزه کردن (از این پس آن را با نامscale می شناسیم) است. در صورت کمبود scale تعدادcentroidهای بیشتری ایجاد می شود[1]. فرایند کوانتیزه نمودن بردار ها به شرح زیر می باشد: 1.scale d را set می کند. 2.بردار خصوصیت را به عنوان اولینcentroid انتخاب می شود. 3.برای خصوصییت i ام (تعداد کل بردار های خصوصیت2<i<) : اگر centroid ای وجود دارد که فاصله آن از خصوصیت i ام کمتر از d است سپس بردار خصوصیت i  ام درون نزدیک ترین centroid قرار می گیرد در غیر این صورت بردار خصوصیت i  ام در centroid جدید قرار می گیرد[1].

1-3.محاسبه احتمال هر کلمه کلیدی برای هر کلاستر بعد از اینکه centroid ها Cj   (j=1,2,…,C) با استفاده از کوانتیزه کردن بردار ها به وجود آمد,شباهت ها (احتمال شرطی) P(Wi|Cj) برای هر کلمه Wi  (i=1,2,…,w) و هر Cj با محاسبات زیر به دست می آید[1].

mji :تعداد کل کلمات درون centroid,Cj است (=∑_(k=1)^W▒mjk) Mj :نشان دهنده ی کل کلمات در Cj است ni :تعداد کل کلمات Wi در کل داده می باشد N(=∑_(k=1)^W▒nk) :تعداد کل کلمات برای تمام داده ها می باشد(کلمات هر بار که نمایش داده می شوند شمرده می شوند[1].

1-4.شناسایی کلمات مرتبط از یک تصویر ناشناخته استفاده از تخمین شباهتP(Wi|Cj) ,کلمات مرتبط درون یک تصویر ناشناخته به صورت زیر محاسبه می شوند: 1-تصویر ناشناخته مانند تصاویر یادگیری شده به قسمت ها تقسیم می شوند و خصوصیات آنها استخراج می گردد. 2-در فضای خصوصیات نزدیک ترین centroid برای هر قسمت پیدا می شود. 3-میانگین شباهت نزدیک ترین centroid اندازه گیری می شود, و کلماتی بیشترین میانگین را دارند به عنوان خروجی در نظر گرفته می شوند. شکل 4 مفهوم تخمین ارتباط بین کلمات و تصویر ناشناخته را نشان می دهد[1]. Machine translation model-2 در این مدل تصاویر را با استفاده از واژگان بلاب توصیف می کنند. در ابتدا با استفاده از الگوریتم های سگمنت بندی مثل Ncut نواحی ایجاد می شود سپس برای هر یک از نواحی خصوصیات محاسبه می شوند سپس با استفاده از دسته بندی خصوصیات تصویر برای این نواحی بلاب ها ایجاد می شوند. هر تصویر با تعداد معلومی از بلاب ها توصیف می شود[2].

Cross media relevance model(CMRM)-3 Jeon et al نتیجه کار Duygulu et al را با استفاده از مدل زبان generative که Cross Media  Relevance Model نامیده می شود بهتر کرد این مدل همان کار نمایش بلاب ای تصویر(کار انجام شده در Machine translation )را انجام می دهد[3].

Continuous space relevance model(CRM)-4 Lavrenko et al به این نتیجه رسید که فرآیند کوانتیزه نمودن تصویر پیوسته به بلاب های گسسته که در Machine translation و CMRM استفاده می شود باعث از بین رفتن اطلاعات مفید در نواحی تصویر می شود اما با استفاده از تابع احتمال پیوسته این اطلاعات مفید از بین نمی رود بنابراین از تابع احتمال پیوسته استفاده نمود و نتایج کار های قبل را با این مدل بهتر نمود[4].

Multiple Bernoulli relevance model (MBRM)-5 Feng et al در مدل CRM تغییراتی ایجاد کرد و مدل MBRM را به وجود آورد در واقع او به جای اینکه تصویر را با استفاده های اتوماتیک تقسم بندی به نواحی تقسیم کند به صورت ساده تصاویر را به مربع هایی هم اندازه تقسیم نمود و نواحی را به وجود آورد مدل MBRM کارایی بالایی نسبت به CRM دارد چون درگیر کار های تقسیم بندی نیست[5].

مقایسه روش های segmentation : در این قسمت به مشکل تقسیم بندی تصویر به نواحی مختلف می پردازیم این الگوریتم ها دو گونه هستند الگوریتم های کلاسترینگ (EM) و الگوریتم های بر پایه گراف(Ncut) که در اینجا آنها را با هم مقایسه می کنیم. الگوریتم EM الگوریتم کلاسترینگ است که مجموعه داده ها را براساس اندازه فاصله تعریف شده کلاستر می کند. الگوریتم Ncut نیز برای تقسیم بندی تصویر اندازه شباهت المنت های یک گروه وغیر شباهت بین گروه های مختلف را اندازه گیری می کند. در زیر به بررسی الگوریتم های نام برده می پردازیم[7]: 1-:(EM)Expectation Maximization Expectation Maximization یکی از متداول ترین الگوریتم هاست که برای مورد تخمین غلظت هر نقطه مورد استفاده قرار می گیرد. این الگوریتم به پیدا کردن ماگزیمم شباهت پارامتر ها بستگی دارد در حالی که مدل داده به تعداد متغییر ها بستگی دارد. قدم های بعدی برای Expectation (E) و Maximization (M) به صورت پی در پی تکرار می شود تا اینکه نتیجه آنها با هم ادغام شود در مرحله E مقدار Expectation شباهت را با وارد کردن آخرین متغییر محاسبه می شود و در مرحله M ماگزیمم شباهت پارامتر ها شباهت Expectation که در مرحله E بدست آمد محاسبه می شود. و همچنین پارامتر های پیدا شده در مرحله M برای شروع مرحله E مورد استفاده قرار می گیرند و این فرآیند تا زمانی که ادغام شوند ادامه پیدا می کند. محاسبات برای مجموعه داده های یادگیری و {X(1),X(i2,…X(M)} و مدل P(X,Z) که در آن Z آخرین متغییر است به صورت زیر است[7]: از الگوریتم بالا می توان فهمید که لگاریتم شباهت با اصطلاحاتی از قبیل X,Z,θ توصیف می شود اما چون Z آخرین متغییر است و شناخته نشده است در اینجا از تقریب استفاده می کنیم این تقریب که در مراحل E وM که در بالا توضیح داده شد به صورت محاسباتی زیر فرمول بندی می شود[7]. مرحله E برای هر i: مرحله M برای همه ی Z ها :
 * (Ncut)Normalized Cut-2

فرآیند تقسیم بندی تصویر را می توان همان فرآیند بهینه پارتیشن بندی گراف نیز در نظر گرفت.تصویر همچون گراف بدون جهت و وزن دار G=(V,E) در نظر گرفته می شود. این گراف تصویر را می توان به دو زیر گراف A وB مدل سازی کرد و پارتیشن مینیمم cut نیز به صورت زیر تعریف می شود[7]: وزن هر یال W(I,j) تابعی از شباهت بین نودi و نود jمی باشد. اما minimum cut ایزوله کوچک را درون گراف می برد.برای غلبه کردن به آن ما می توانیم از تابع هزینه تغییر یافته به صورت زیر استفاده کنیم[7]. Association value,assoc(A,V) تعداد کل ارتباطات بین نود A و بقیه ی نود ها درون گراف می باشد. مقدارNcut برای cut ای که پارتیشن ایزوله دارد نمی تواند مقدار کمی باشد چون مقدار cut حداکثر درصد ارتباطات را بین آن مجموعه و بقیه مجموعه ها خواهد داشت. یک پارتیشن از گراف V را درون دو قسمت جدا از هم A وB در این کار مقدار X=|V| است. اگر i درون A قرار داشت مقدار Xi برابر صفر خواهد بود در غیر این صورت مقدار آن 1- خواهد بود[7]. di=∑_j▒〖w(i,j)〗 تعداد کل ارتباطات بین نود i با بقیه نود ها می باشد و می توان Ncut را به صورت زیر تغییر داد[7].

در این معادله D=diag(d1,d2,…dN) یک ماتریس N*Nبعدی و W یک ماتریس متقارنN*N می باشد که در آنW(I,J)=Wij می باشد. و معادله کاهش یافته بهینه به صورت زیر می باشد[7]. 6.ارزیابی روش های برچسب گذاری تصاویر به روش اتوماتیک Precision و recall از مهمترین معیار ها برای مقایسه روش های بازیابی تصاویر بر پایه محتویات هستند و همچنین برای ارزیابی کارایی ایده های برچسب گذاری تصاویر به صورت عمده از آنها استفاده می شود. Precision را می توان به صورت نسبت تعداد کلماتی که به صورت صحیح بازیابی شده اند به تعداد کل کلماتی که در هر جستوجو تصویر بازیابی می شوند تعریف نمود. recall را می توان به صورت نسبت کلماتی که به درستی بازیابی شده اند به تعداد کلماتی که در هر جستوجو تصویر بازیابی می شوند تعریف نمود. برای گرفتن مشخصه معنایی, فرض می کنیم WH کلمه ای است که توسط انسان به تصویر نسبت داده شده است و Wauto کلمه ای است که توسط سیستم به تصویر نسبت داده شده است. Wc تعداد کلماتی است که به صورت صحیح به تصویر نسبت داده شده است. و برای هر کلمه مقادیر Precision و recall بصورت زیر محاسبه می شود:

Precision=Wc/Wauto                            recall=Wc/WH

در نهایت میانگین مقادیر Precision و recall برای مجموعه کلماتی که نمایش داده شده محاسبه می گردد و مقادیر میانگین Precision (P) و میانگین recall (R) بدست می آید. همچنین تعداد صحیح همواره بزرگتر از صفر است non-zero recall (NRZ). همچنین می توان کارایی را نیز بر حسب Precision و recall محاسبه نمود. یک اصطلاح را جستوجو نموده و n تصویر بالا از پایگاه تصویر بازیابی می شوند.

7.مقایسه کار های انجام شده در این قسمت به مقایسه کار های انجام شده در رابطه با بر چسب گذاری تصاویر به روش اتوماتیک می پردازیم مقایسه کار های انجام شده در جدول وجود دارد. این مقایسه به آنالیز تصویر و تکنیک های یادگیری آماری برای برچسب گذاری تصویر تمرکز دارد و به عوامل کارایی سیستم مثل دقت و Precision و recall توجهی ندارد.[1,2,3,4,5]

8.نتیجه گیری غلبه کردن بر گپ های معنایی برای بازیابی تصاویر کار اسانی نیست. برای غلبه کردن به گپ های معنایی برچسب گذاری تصویر به روش اتوماتیک راه حل است ولی مشکل عمده تر فهماندن محتویات تصویر (معنایی یا خصوصیات سطح بالا) است برای اینکه بتوانیم گپ های معنایی و مفاهیم سطح بالا را به هم نزدیک کنیم باید بر آنالیز تصویر و ایده های یادگیری آماری و دیگر تکنیک ها مانند دسته بندی مسلط باشیم [6].

مراجع [1] Y.Mori,h.Takahashi and R .Oka,”Image-to-Word Transformation Based on Dividing and Vector Quantization Image with Word,”in MISRM’99 First International Workshop on Multimedia Intelligent Storage and Retrieval Management ,1990. [2] Duygulu,P.,Barnard,k.,de Freitas,J.F.G.,Forsyth,and D.A.:Object recognition as machine translation:Learning a lexicon for a fixed image vocabulary. In:European Conference on Computer Vision.(2002) 97-112. [3] Beli,D.M.Jordan,and M.I.:Modeling annotated data.In Proceedings of the international ACM Conference on researchvand development in information Retrieval ,Newyork ,ACM (2003)127-134. [4] V.Lavrenko,R.Manmatha and J.Jeon,”A Model for Learning the Semantics of Pictures,”in Proceedings of Advance in Neutral Information Processing,2003. [5] S.Feng,R. Manmatha and V. Laverenko,”Multiple Bernolli Relevance Models for Image and Video Annotatio,”in IEEE Computer Society Conference on Computer Vision and Pattern Recognition ,2004,p. 1002-1009. [6] T.Sumathi,C.Lakshmi Devasena,M.Hemalatha,”An Overview of Automated Image Annotation Approaches”,in International Journal of Research and Reviews in Information Sciences,2011

[7] S.Tatirajo,A.Mehta,”Image Segmentation using k-means Clustering EM and Ncut” ,in university of California,2009. [8] http://en.wikipedia.org/wiki/Content-based_image_retrieval.