User:MiaCarissima

My Reference Page
1. Natural Language Processing is a very attractive method of human-computer interaction. Early systems such as SHRDLU, working in restricted "blocks worlds" with restricted vocabularies, worked extremely well, leading researchers to excessive optimism, which was soon lost when the systems were extended to more realistic situations with real-world ambiguity and complexity.

Natural-language understanding is sometimes referred to as an AI-complete problem, because natural-language recognition seems to require extensive knowledge about the outside world and the ability to manipulate it. The definition of "understanding" is one of the major problems in natural-language processing.

Natural language processing. (2008, February 24). In Wikipedia, The Free Encyclopedia. Retrieved 11:49, February 25, 2008, from http://en.wikipedia.org/w/index.php?title=Natural_language_processing&oldid=193656042

Collection of CoLi Links
Language Learning & Technology is a refereed journal which began publication in July 1997. The journal seeks to disseminate research to foreign and second language educators in the US and around the world on issues related to technology and [language education]. Language Learning & Technology is sponsored and funded by the University of Hawai'i National Foreign Language Resource Center (NFLRC) and the Michigan State University Center for Language Education And Research (CLEAR), and is co-sponsored by the Center for Applied Linguistics (CAL). Language Learning & Technology is a fully refereed journal with an editorial board of scholars in the fields of second language acquisition and computer-assisted language learning. The focus of the publication is not technology per se, but rather issues related to language learning and language teaching, and how they are affected or enhanced by the use of technologies. Language Learning & Technology is published exclusively on the World Wide Web. In this way, the journal seeks to (a) reach a broad audience in a timely manner, (b) provide a multimedia format which can more fully illustrate the technologies under discussion, and (c) provide hypermedia links to related background information. Beginning with Volume 7, Number 1, Language Learning & Technology is indexed in the exclusive Institute for Scientific Information's (ISI) Social Sciences Citation Index (SSCI), ISI Alerting Services, Social Scisearch, and Current Contents/Social and Behavioral Sciences. Language Learning & Technology is currently published three times per year (February, June, and October).
 * Language Learning & Technology

Títulos cuya materia coincida exactamente con 'Language and literature -- Philology. Linguistics -- Language. Linguistic theory. Comparative grammar'
 * Unoversidad di Deusto: Listado de publicaciones

These free content-based modules may be used as an entire course or as a supplement to upper-level and heritage-speaker Russian language classes. By working with these materials, students can gain cultural and literary competence in a variety of fields related to Russia by using the original and authentic materials provided here as well as the interactive language exercises designed around these texts. This project is still under development.
 * Language Learning Modules for Russian

Computer-assisted language learning (CALL) is an approach to teaching and learning in which the computer and computer-based resources such as the Internet are used to present, reinforce and assess material to be learned. It usually includes a substantial interactive element. It also includes the search for and the investigation of applications in language teaching and learning. Computer Assisted Language Learning.
 * Computer-assisted language learning (CALL)

Wikipedia Articles

 * Speech segmentation: In most spoken languages, the sounds representing successive letters blend into each other, so the conversion of the analog signal to discrete characters can be a very difficult process. Also, in natural speech there are hardly any pauses between successive words; the location of those boundaries usually must take into account grammatical and semantic constraints, as well as the context.


 * Text segmentation: Some written languages like Chinese, Japanese and Thai do not have single-word boundaries either, so any significant text parsing usually requires the identification of word boundaries, which is often a non-trivial task.


 * Word sense disambiguation: Many words have more than one meaning; we have to select the meaning which makes the most sense in context.


 * Syntactic ambiguity: The grammar for natural languages is ambiguous, i.e. there are often multiple possible parse trees for a given sentence. Choosing the most appropriate one usually requires semantic and contextual information. Specific problem components of syntactic ambiguity include sentence boundary disambiguation.


 * Imperfect or irregular input : Foreign or regional accents and vocal impediments in speech; typing or grammatical errors, OCR errors in texts.


 * Speech acts and plans: Sentences often don't mean what they literally say; for instance a good answer to "Can you pass the salt" is to pass the salt; in most contexts "Yes" is not a good answer, although "No" is better and "I'm afraid that I can't see it" is better yet. And for the question "How many students failed the class last year?", "The class was not offered last year" is a better answer than "None".

Human Language Technologies
Author - Joseba Abaitua Author - Olena Siruk
 * HLTO0708
 * Resources for Computational Linguistics classes
 * Euskal Herriko Unibertsitatea
 * Klasikoen Gordailua
 * Zientzia eta Teknologiaren Corpusa
 * Language and semantic content engineering

Research Groups (in no particular order)

 * Center for Intelligent Information Retrieval at UMASS
 * Information Retrieval at the Language Technologies Institute, Carnegie Mellon University
 * Information Retrieval at Microsoft Research Cambridge
 * Glasgow Information Retrieval Group
 * CIR Centre for Information Retrieval
 * Centre for Interactive Systems Research at City University, London
 * IIT Information Retrieval Lab
 * Information Retrieval Group at Université de Neuchâtel

Joseba Abaitua Odriozola
Joseba Abaitua Odriozola es profesor titular del Departamento de Filología Inglesa de la Facultad de Filosofía y Letras de la Universidad de Deusto. Es licenciado en Filología Vasca por la Universidad del País Vasco, Master y Doctor en Lingüística Computacional por el Instituto de Ciencia y Tecnología de la Universidad de Manchester (UMIST).

Es especialista en tecnologías lingüísticas, particularmente en el área de la traducción automática y traducción asistida por ordenador, así como en otras áreas relacionadas: edición digital e hipertextual, publicación web y web semántica, gestión de contenidos, etiquetado y categorización textual, metadatos. Su principal línea de investigación en la actualidad es la categorización de recursos y su acceso multilingüe. En relación con ello, se interesa por la interferencia entre entornos de sofware social (categorización por folcsonomías) y las tecnologías semánticas (taxonomías y ontologías).

Ha participado en una docena de proyectos de investigación financiados por organismos públicos (CE, MCYT, MEC y GV), en colaboración con empresas (CodeSyntax?, Sarenet, Stella) y otros grupos de investigación universitarios (TALP de UPC, CLIC de UB, IULA de UPF, IXA de UPV-EHU, UNED). Ha presentado los resultados de investigación en numerosos foros nacionales e internacionales de la especialidad (SEPLN, JOTRI, ACL, COLING, AMTA, ASLIB, CLIP, etc.) y ha formado parte del comité científico en cinco ocasiones. Ha sido invitado a impartir conferencias, mesas redondas, seminarios y ha realizado evaluaciones y dictámentes en una veintena de ocasiones. En esta área cuenta con más de treinta publicaciones científicas nacionales e internacionales, entre artículos y capítulos de libros. Es socio fundador del grupo de investigación DELi? de la Universidad de Deusto (especializado en edición digital y web semántica) y forma parte de varias redes de investigación (tecnologías de traducción y edición digital). Ha impartido una veintena de cursos de postgrado (master y doctorado) y ha dirigido cuatro tesis sobre la materia, participando asimismo en una decena de tribunales de doctorado.

Ha trabajado en el desarrollo de dos sistemas de traducción automática. Uno, durante cuatro años, con Fujitsu I+D Barcelona (par japonés-español) y otro, como director de proyecto, con AutomaticTrans? (par español-euskara), en sus fases de estudio de viabilidad y preparación de recursos bilingües. Ha realizado trabajos de consultoría para empresas sobre edición digital (Francis Lefebre) y sobre tecnología lingüística (AutomaticTrans?, Sarenet, Codesyntax, Bitext y el Instituto Cervantes). Ha sido contratado por la DGXIII de la Comisión Europea como evaluador de proyectos (una treintena) en tres ocasiones, para el IV Programa Marco (Language Reseach and Engineering), para el V (Creating a user-friendly information society (IST) y para eContent (European digital content on global networks). También ejerce como evaluador para la Asociación Nacional de Evaluación y Prospectiva (ANEP) de la Comisión Interministerial de Ciencia y Tecnología (CICYT) del Gobierno Español (seis ocasiones). Ha participado en el grupo redactor de la "Ponencia sobre cultura digital" del Plan Vasco de la Cultura y en la elaboración de la ponencia para el Programa de Tecnologías de la Lengua dentro del Plan de Ciencia, Tecnología y Sociedad 2005-2008, Gobierno Vasco.

Es profesor titular del Departamento de Filología de la Facultad de Filosofía y Letras de la Universidad de Deusto. Es licenciado en Filología Vasca por la Universidad del País Vasco, Master y Doctor en Lingüística Computacional por el Instituto de Ciencia y Tecnología de la Universidad de Manchester (UMIST). Es especialista en tecnologías lingüísticas, particularmente en el área de la traducción automática y traducción asistida por ordenador, así como en otras áreas relacionadas: edición digital e hipertextual, publicación web y web semántica, gestión de contenidos, etiquetado y categorización textual, metadatos. Su principal línea de investigación en la actualidad es la categorización de recursos y su acceso multilingüe. En relación con ello, se interesa por la interferencia entre entornos de sofware social (categorización por folcsonomías) y las tecnologías semánticas (taxonomías y ontologías).

Ha participado en una docena de proyectos de investigación financiados por organismos públicos (CE, MCYT, MEC y GV), en colaboración con empresas (EmergiaTech?, CodeSyntax?, AutomaticTrans?, Sarenet, Stella, Fujitsu) y otros grupos de investigación universitarios (TALP de UPC, CLIC de UB, IULA de UPF, IXA de UPV-EHU, UNED). Ha presentado los resultados de investigación en numerosos foros nacionales e internacionales de la especialidad (SEPLN, JOTRI, ACL, COLING, AMTA, ASLIB, CLIP, etc.). Ha sido invitado a impartir conferencias, mesas redondas, seminarios y ha realizado evaluaciones y dictámentes en una veintena de ocasiones. En esta área cuenta con más de treinta publicaciones científicas nacionales e internacionales, entre artículos y capítulos de libros. Es socio fundador del grupo de investigación DELi? de la Universidad de Deusto (especializado en edición digital y web semántica) y forma parte de varias redes de investigación (tecnologías de traducción y edición digital). Ha impartido una veintena de cursos de postgrado (master y doctorado) y ha dirigido cuatro tesis sobre la materia.

Ha trabajado para la DGXIII de la Comisión Europea como evaluador de proyectos (una treintena) en tres ocasiones, para el IV Programa Marco (Language Reseach and Engineering), para el V (Creating a user-friendly information society (IST) y para eContent (European digital content on global networks). También ejerce como evaluador para la Asociación Nacional de Evaluación y Prospectiva (ANEP) de la Comisión Interministerial de Ciencia y Tecnología (CICYT) del Gobierno Español (seis ocasiones). Ha participado en el grupo redactor de la "Ponencia sobre cultura digital" del Plan Vasco de la Cultura y en la elaboración de la ponencia para el Programa de Tecnologías de la Lengua dentro del Plan de Ciencia, Tecnología y Sociedad 2005-2008, Gobierno Vasco.