La Gaceta
de la
Real Sociedad Matemática Española
Vol.3, nº1, Enero-Abril 2000, pp. 23-41

Las Matemáticas ante el cambio de milenio
Phillip A. Griffiths
Institute for Advanced Study
Princeton, N.J.,USA

Indice

1. INTRODUCCIÓN

2. EL MUNDO DE LAS MATEMÁTICAS
El último teorema de Fermat
La conjetura de Kepler sobre los empaquetamientos de esferas
El problema de los cuatro colores
La naturaleza dual de las Matemáticas

3. TENDENCIAS DEL SIGLO XX
Solitones
Las Matemáticas y las demás ciencias
Las Matemáticas y la Física Teórica
Las Matemáticas y las Ciencias de la Vida

4. LOS RETOS DE LA INVESTIGACIÓN MATEMÁTICA DEL SIGLO XXI
La Hipótesis de Riemann
La conjetura de Poincaré
¿P=NP?
Computación Teórica
Computación Cuántica

5. CÓMO MANTENER EL VIGOR DE LAS MATEMÁTICAS EN EL SIGLO XXI
Educación
Comunicación
Pluridisciplinaridad
El próximo milenio

Este artículo apareció en The American Mathematical Monthly, número 1 del volumen 107 de Enero de 2000. La Gaceta de la Real Sociedad Matemática Española agradece a la Mathematical Association of America el permiso para su traducción y publicación.

El artículo es una versión ampliada de la conferencia del Profesor Griffiths en el simposio Fronteras de la Mente que tuvo lugar el 15 de Junio de 1999 en la Biblioteca del Congreso, en Washington, Estados Unidos de América. El propósito de la conferencia era comunicar algunas ideas sobre Matemáticas a un público general.

El Profesor Phillip A. Griffiths es desde 1991 el séptimo director del Instituto de Estudios Avanzados y desde 1998 es Secretario de la Unión Matemática Internacional. Entre 1972 y 1983 fue catedrático de la Universidad de Harvard y desde 1983 hasta 1991 fue catedrático (James B. Duke Professor) y Rector de la Universidad de Duke. También ha sido profesor de la Universidad de Princeton y de la Universidad de California, en, Berkeley. El Doctor Griffiths nació en Raleigh, Carolina del Norte y se doctoró en la Universidad de Princeton. Es miembro de la National Academy of Sciences y de la American Philosophical Society. Ha sido miembro del National Science Board entre 1991 y 1996.




 

1 INTRODUCCION

El siglo XX ha sido un verdadero Siglo de Oro de las Matemáticas. Muchos problemas importantes, planteados hace mucho tiempo, y a la espera de solución, se han resuelto gracias, en gran medida, a la creciente comprensión de las complejas relaciones que existen entre las distintas áreas de las Matemáticas. La continua expansión y la profundización en estas relaciones están permitiendo que las Matemáticas se aventuren en la exploración de interacciones con otras áreas de conocimiento científico. Estas interacciones de distintas áreas de las Matemáticas entre sí y, al mismo tiempo, entre las Matemáticas y otros campos científicos, han conducido a novedosas y poderosas intuiciones que han impulsado el avance del conocimiento matemático. En lo que sigue voy a discutir algunas de estas interacciones e intuiciones, a describir algunos logros de los matemáticos del siglo XX, y a plantear alguno de los retos y oportunidades que nos aguardan en el siglo XXI.
 

2 EL MUNDO DE LAS MATEMÁTICAS

Al discutir el trabajo matemático nos enfrentamos con un dilema. La forma más eficaz de explicar las matemáticas a un público general consiste en emplear metáforas, lo que conlleva una pérdida de precisión que puede dar lugar a interpretaciones erróneas. Por otro lado, la terminología de la matemática avanzada resulta incomprensible para la mayoría de la gente, e incluso para otros científicos. Como ha dicho mi colega David Mumford Estoy acostumbrado, como matemático profesional, a vivir en una suerte de vacío, rodeado de gente que se declara, con conspicuo orgullo, analfabeta en matemáticas.

Sin embargo, dentro de la comunidad matemática, el uso de un lenguaje preciso es una ventaja. Como consecuencia de su naturaleza abstracta y de su universalidad, las Matemáticas no conocen barreras lingüísticas ni políticas. Esa es una de las razones que han hecho que las Matemáticas se hayan caracterizado siempre por un estilo inequívocamente internacional y no sorprende que un matemático japonés pueda leer un artículo de un colega alemán sin necesidad de traducción.

El número de matemáticos realmente activos en investigación en todo el mundo es bastante pequeño, no llega a diez mil, y eso hace que los que cultivan un área específica de las Matemáticas constituyan un reducido grupo de profesionales altísimamente especializados. Por pura necesidad, estos colegas se conocen unos a otros muy bien, independientemente de cual sea su país de residencia, y colaboran en artículos conjuntos a pesar de las distancias que los puedan separar. A lo largo de este siglo XX, el número de artículos en cuya elaboración han participado matemáticos de diferentes países no ha cesado de crecer, de hecho aumentó en un 50% entre 1981 y 1993. Los matemáticos, por consiguiente, están muy bien adaptados al mundo global y casi sin fronteras al que nos encaminamos.

Pero, ¿a qué se dedican de verdad los matemáticos? En general, podemos describir la actividad matemática como la búsqueda de estructuras y de pautas que aportan orden y simplicidad a nuestro universo. Se puede incluso llegar a afirmar que ni el punto de partida ni el objeto de un estudio matemático son tan importantes como las pautas y la coherencia que emergen de él. Esas pautas y esa coherencia proporcionan a las Matemáticas su potencia, porque con frecuencia le permiten iluminar con claridad objetos y procesos completamente diferentes y que se hallan presentes en otras ramas de las Matemáticas, en otras ciencias o en la sociedad en general.

Cuando los matemáticos discuten su trabajo, hay dos palabras con una carga de significado muy especial. Las Matemáticas son un campo de conocimiento donde un problema no es algo malo. Al contrario, los matemáticos ansían buenos problemas, pues un buen problema significa trabajo interesante. La segunda palabra es demostración, un término que abiertamente proclama el rigor de esta disciplina. Sir Arthur Eddington dijo una vez: la demostración es un ídolo ante el que el matemático se tortura a sí mismo. Una demostración
matemática es un desarrollo formal que partiendo de un conjunto de axiomas y a través de pasos lógicos alcanza una conclusión. Cualquier demostración, una vez dada, es permanente; algunas demostraciones han existido desde el tiempo de los griegos. Las demostraciones confirman la verdad para el matemático de igual manera a como hacen los experimentos o las observaciones para el científico de la naturaleza.

El siglo XX ha sido una época extremadamente fértil en cuanto a la resolución de antiguos problemas abiertos, y en el que se han logrado importantes avances que requerirían de toda una enciclopedia para su adecuada exposición. Vamos tan sólo a describir dos de los logros más interesantes: ambos son soluciones a problemas de más de trescientos años, que se obtuvieron al final de este siglo y en los que se logró el éxito gracias a desarrollos matemáticos previos.

El último teorema de Fermat. El primero de estos logros es la demostración de Andrew Wiles del último teorema de Fermat y cuya noticia dio la vuelta al mundo en 1993. Las personalidades de Fermat y de Wiles y el propio problema hacen este ejemplo particularmente interesante. Fermat fue un excéntrico jurista y matemático aficionado que no publicó artículo matemático alguno, mientras que Wiles se afanó en solitario durante siete años por conseguir una demostración del teorema. En cuanto al problema, su solución ha dependido, en última instancia, de avances fundamentales en la Teoría de Números que se obtuvieron gracias al trabajo de numerosos matemáticos durante un periodo de trescientos cincuenta años y, en especial, durante el último medio siglo.

El enunciado del teorema aparece en 1637 cuando Pierre de Fermat estaba estudiando un antiguo texto de Teoría de Números, la Aritmética de Diofanto. El interés en Teoría de Números había ido declinando desde el tiempo de la Grecia Clásica, pero Fermat amaba los números y se encontró con la famosa
ecuación pitagórica que todos aprendemos en el colegio: x^2+ y^2 = z^2. Incluso hoy en día, los escolares aprenden de memoria: El cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos.

Entre las soluciones de la ecuación pitagórica son de particular interés aquellas que consisten de números enteros, tales como la del hermoso triángulo rectángulo 3,4,5. Fermat observó que, para cualquier exponente mayor que 2, la ecuación no debería tener soluciones con números enteros, y escribió en el margen, en latín, que había descubierto una prueba maravillosa de este hecho pero, que ese margen era demasiado estrecho para que cupiera. Fermat escribió muchas anotaciones como ésta en los márgenes de los libros que leía (algunas de las cuales parece ser que eran burlas de matemáticos de su época) y a lo largo de los años se fueron confirmando todas y cada una de ellas salvo el último teorema de Fermat.

Andrew Wiles se tropezó con Fermat por primera vez a los 19 años en una biblioteca de Cambridge, Inglaterra, su ciudad natal. Y fue ya entonces cuando decidió que algún día lo demostraría. Sin embargo, siendo ya un joven matemático, comprendió que no era recomendable centrarse en perseguir a Fermat, y se decantó por trabajar en un área compleja de la Teoría Algebraica de Números que se conoce como Teoría de Iwasawa. Pero nunca olvidó a Fermat.

En 1986 supo de un gran avance: un colega, Ken Ribet de la Universidad de California en Berkeley, había logrado relacionar el último teorema de Fermat con otro problema abierto, la conjetura de Taniyama-Shimura, una formulación sorprendente y brillante en Geometría Algebraica que había sido propuesta en 1955. Para resumir una línea de razonamiento muy compleja, digamos que la relación descubierta por Ribet demostraba que de una solución (afirmativa) de la conjetura de Taniyama-Shimura se concluía una demostración del último teorema de Fermat, construyendo así un puente entre los intrincados mundos de las curvas elípticas y de las formas modulares, una suerte de diccionario que permite traducir preguntas e intuiciones entre los dos mundos. Todo esto significó para Wiles que su trabajo previo en Teoría Algebraica de Números podía ser útil para resolver Fermat, y que tanto si lo lograba como si no, el intentarlo podría ser fuente de nuevos problemas interesantes.

Y encontró una demostración, tras una serie de desconcertantes obstáculos y repentinas intuiciones. De hecho, tras anunciar sus resultados y durante el periodo de evaluación, se detectó un error crucial cuya corrección le supuso a Wiles un año adicional de trabajo. Visto y no visto, de repente no había solución, pero, al final, sí la hubo. Wiles describió la última idea que necesitó en los siguientes términos: fue el momento más importante de mi vida profesional, era tan inefablemente hermosa, era tan simple y elegante que me quedé perplejo e incrédulo durante veinte minutos.

Quizás la mejor forma que tengo para describir mi experiencia al hacer matemáticas es como un viaje a través de una oscura y desconocida mansión. Entras en la primera estancia y está completamente a oscuras. Tropiezas con el mobiliario que te hace caer, pero con el tiempo acabas sabiendo donde están los muebles. Finalmente, tras unos seis meses, encuentras el interruptor de la luz, lo accionas y todo se ilumina. Entonces descubres dónde estabas exactamente. Luego te trasladas a la siguiente estancia y te pasas otros seis meses en la oscuridad. De manera que todos estos momentos de iluminación, algunos muy rápidos, otros de un día o dos, son la culminación de los muchos meses de tropiezos y caídas en la oscuridad que los precedieron, y sin los cuales no podían existir.

Andrew Wiles, demostró el último teorema de Fermat en 1993. ¿Es posible que Fermat demostrase su teorema en el siglo XVII? Sin duda, habrá gente que continúe buscando evidencia de que sí lo demostró, pero yo creo que es bastante improbable porque el trabajo de Wiles hace uso de áreas completas de las Matemáticas de los dos últimos siglos que no existían en tiempos de Fermat. Bajo la ecuación de Fermat yace ahora una enorme y desarrollada estructura formal, el tipo de estructura que buscan los matemáticos. La solución de Fermat surge como consecuencia de entender esta estructura.

La conjetura de Kepler sobre los empaquetamientos de esferas. El segundo problema es la conjetura de Kepler sobre empaquetamientos de esferas. Al igual que el problema de Fermat, el empaquetamiento de esferas sólo se podía haber resuelto, en la forma en que lo ha sido, en los últimos decenios. A pesar de esto, a Thomas Hales, catedrático de matemáticas de la Universidad de Michigan, su resolución le llevó diez años de trabajo. Al igual que Fermat, el problema del empaquetamiento de esferas tiene una apariencia simple, pero ha derrotado los esfuerzos de los matemáticos durante casi cuatro siglos. Además, ambos problemas esconden sutiles dificultades que han llevado a creer a más de un matemático que había encontrado una solución, aunque ésta al final resultase falsa.

La cuestión aparece formulada por primera vez en la segunda mitad del siglo XVI, cuando Sir Walter Raleigh le preguntó al matemático inglés Thomas Harriot si sabía de un procedimiento rápido para calcular el número de balas de cañón que podían apilarse en la cubierta de un barco. Por su parte, Harriot le escribió a Johannes Kepler, el astrónomo alemán, quien ya se había interesado por estas cuestiones: ¿cómo se han de apilar esferas para minimizar el espacio entre ellas? Kepler no pudo encontrar ningún sistema más eficaz para apilar que el que usaban los marineros para las balas de cañón o los fruteros para las naranjas, y que se conoce como empaquetamiento cúbico centrado en las caras. Y declaró que esta técnica de empaquetamiento era la más prieta, y ninguna otra forma de apilar perdigones en un contenedor permite empaquetar más. Esta afirmación acabó por ser conocida como la conjetura de Kepler.

El legendario matemático alemán Karl Fiedrich Gauss aportó un importante avance en el siglo XIX cuando demostró que el empaquetamiento de las naranjas es el más eficaz entre los empaquetamientos reticulares, pero este resultado no excluía la posiblidad de empaquetamientos no-reticulares más eficaces. La conjetura de Kepler era ya a comienzos del siglo XX lo suficientemente importante como para que David Hilbert la incluyera en su lista de los 23 grandes problemas por resolver.

La dificultad del problema estriba en el inmenso número de posibilidades que deben ser eliminadas. A mediados del siglo XX, los matemáticos ya sabían como reducir el problema a un análisis finito. Un importante avance tuvo lugar en 1953 cuando el matemático húngaro Laszlo Fejes Tóth redujo el problema a un enorme cálculo en el que intervenían muchísimos casos específicos; al mismo tiempo sugirió un procedimiento para resolverlo por ordenador.

El reto era inmenso, incluso para Hales. Su ecuación tenía 150 variables, cada una de las cuales debía ir cambiando de valor para así describir todos los apilamientos posibles. La demostración, que se desarrolla en un argumento que ocupa 250 páginas y que incluye 3 gigabytes de archivos de ordenador, depende fundamentalmente de métodos de la Teoría de Optimización Global, Programación Lineal y Aritmética de Intervalos. Hales reconoce que pasará
algún tiempo antes de que una demostración de tal tamaño se haya podido verificar completamente en todos sus detalles.

Vale la pena señalar, sin embargo, que este trabajo dista mucho de ser un asunto frívolo. El tema de los empaquetamientos de esferas pertenece a esa área crucial de las Matemáticas en la que se fundamentan los códigos que detectan y corrigen errores y que tanto se usan para almacenar información en discos compactos y para comprimir información para su posterior transmisión a cualquier parte del mundo. Es difícil imaginar una aplicación de mayor relevancia en la sociedad de la información en que vivimos.

El problema de los cuatro colores. Como anexo al empaquetamiento de esferas, vale la pena mencionar un problema relacionado, un problema de cartografía que se conoce como problema de los cuatro colores. Se trata de la afirmación de que cuatro colores son suficientes para colorear cualquier mapa de manera que se usen colores distintos en países vecinos. Este problema se asemeja al del empaquetamiento en que probablemente debió parecer sencillo cuando lo enunció por primera vez el matemático inglés Francis Guthrie en 1852. También se parece en que la única demostración de que disponemos consiste en reducirlo a un problema finito, que luego requiere una ingente capacidad de computación.

La demostración que en 1976 obtuvieron Wolfgang Haken y Kenneth Appel, consiste en probar que si todos los mapas de una cierta lista con x mapas se pueden colorear con 4 colores, entonces todos los mapas se pueden colorear con 4 colores. A pesar de que el número de mapas concebibles es infinito, la colorabilidad de todos ellos depende tan sólo de la colorabilidad de una cantidad grande, pero finita, de mapas fundamentales. Éste fue el primer problema importante y significativo que sucumbió a la potencia de los ordenadores. Son muchos los que han sugerido que la fuerza bruta de las demostraciones por ordenador carece de la claridad de las demostraciones tradicionales: las demostraciones por ordenador certifican que la conjetura es correcta, pero no explican por qué lo es; sin duda, habrá más debate sobre esta cuestión.

La naturaleza dual de las Matemáticas. Ya hemos hecho referencia a la reputación que la Matemática tiene de presumida; de hecho, con un cierto complejo de superioridad se la ha llamado Reina de las Ciencias. Las Matemáticas tiene como un aura de cielos azules, de ejercicios al aire libre que se ejecutan porque sí. Hasta el punto de que el matemático G. H. Hardy dijera en cierta ocasión que sólo se puede justificar la práctica de las Matemáticas como una forma de arte.

De hecho, podemos establecer un paralelismo con las artes, Los matemáticos, como los artistas, confían en la estética y en la intuición como guías de su trabajo, y no es infrecuente que se resuelvan problemas de Matemáticas mientras se da un paseo o se toma una ducha. Pero en cuanto a su utilidad, la diferencia con las artes es patente. Mencionemos unos pocos ejemplos: los modernos ordenadores no podrían existir si no fuera por el sistema de numeración binario de Leibnitz, Einstein no hubiera podido formular su Teoría de la Relatividad sin el desarrollo de la Geometría Riemanniana, y los edificios de la Mecánica Cuántica, la Cristalografía y la tecnología de las comunicaciones no se sostendrían sin la base que les proporciona la Teoría de Grupos.

Además, la cantidad de conocimiento que abarcan los matemáticos parece inmenso si lo comparamos con cuántos son. Me refiero a que las construcciones mentales de los matemáticos (una diminuta subpoblacíón de una única especie en un único planeta) parecen reflejar principios cuya validez se extiende por todo el Universo. A mediados de siglo, el físico Eugene Wigner se refirió a este fenómeno como la irracional eficacia de las matemáticas (abstractas) en las ciencias naturales; a lo que hoy en día añadiríamos eficacia en el diseño de medicamentos, las finanzas, y muchos otros campos. Muchas son las opiniones que tratan de explicar el origen de las construcciones matemáticas. Artur Jaffe sugiere: las ideas matemáticas no nacen ya crecidas de las mentes de los investigadores: las Matemáticas a menudo se inspiran en pautas de la Naturaleza. Las lecciones que se destilan de un sólo encuentro con la Naturaleza continúan siendo útiles cuando se exploran otros fenómenos.

Los matemáticos siempre han llevado sus descubrimientos a campos de conocimiento próximos, dando lugar así a nuevos puntos de vista y, en ocasiones, a áreas de estudio completamente nuevas. Francis Bacon, en 1605, en los albores de la Ilustración, aportó una primera formulación de este principio de ciencia integradora con una imagen muy apropiada: Es imposible descubrir nada si uno permanece en el llano, en el mismo nivel; de igual manera no se pueden desvelar la partes más remotas o profundas de ninguna ciencia si uno no abandona el nivel de esa ciencia y asciende al nivel de una ciencia superior.

Con suma frecuencia a lo largo de todo el siglo XX las Matemáticas han ascendido a ese nivel superior. Por ejemplo, el desarrollo de la tomografía por Rayos X (las tecnologías de escaneado CAT y MRI) se ha construido sobre la Geometría Integral, la generación de códigos para transmitir datos con seguridad depende de la aritmética de los números primos, y el diseño de redes grandes y eficaces de telecomunicaciones usa la teoría de las representaciones infinito-dimensionales de grupos.

Las Matemáticas tienen, por consiguiente, una naturaleza dual: son una disciplina independiente apreciada por su precisión y por su belleza intrínseca, y son, a la vez, una rica fuente de herramientas para el mundo de las aplicaciones. Las dos caras de esta dualidad se hallan íntimamente ligadas. Como vamos a ver en la sección siguiente, el fortalecimiento de esta ligazón durante todo el siglo XX ha permitido que las Matemáticas hayan ido ganando eficacia tanto hacia dentro de sí mismas, como en su aplicación a otros campos.
 

3 TENDENCIAS DEL SIGLO XX

La razón fundamental que explica la salud de la que hoy en día gozan las Matemáticas es el desmoronamiento de las barreras que las compartimentaban. A primera vista, la envergadura de las Matemáticas -un corpus enorme de conceptos, conjeturas, hipótesis y teoremas acumulados durante más de 2000 años- parece desafiar la posibilidad de su unidad. Lejos quedan los días en
que un sólo gigante -un Euler o un Gauss- era capaz de dominar las Matemáticas en su totalidad. Con el enorme desarrollo de distintas áreas de las Matemáticas tras la Segunda Guerra Mundial, las Matemáticas se hicieron tan especializadas, que para los propios matemáticos resultaba difícil comunicarse con cualquiera ajeno a su propia especialidad. Y es frecuente, hoy en día, que esos mismos especialistas se encuentren dispersos por todo el mundo, y hallarlos en Bonn, Princeton, Berkeley, o Tokyo.

Pero esta tendencia hacia la fragmentación se ha venido compensando con una creciente inclinación a abordar problemas interesantes con una actitud integradora. Gracias a conexiones que no cesan de emerger, hoy contemplamos como partes de un todo áreas que hasta hace poco se consideraba que no guardaban relación entre sí. Por ejemplo, la Geometría Algebraica, el área de las Matemáticas que me es más familiar, combina Álgebra, Geometría, Topología y Análisis. Cuando nos acercamos al final de este siglo, las sinergias en este área tan conectada han desempeñado un papel estelar en la consecución de algunos de los logros más descollantes. Uno de éstos es desde luego la resolución del último teorema de Fermat. Otro es la solución de la conjetura de Mordell, que afirma que cualquier ecuación polinómica de grado 4 o mayor con coeficientes racionales puede tener a lo sumo un número finito de soluciones racionales (la ecuación de Fermat no tiene ninguna solución de este tipo). Y un tercero es la solución de las conjeturas de Weil, que son los análogos de la Hipótesis de Riemann para los cuerpos finitos. Todos estos éxitos reflejan la habilidad de los matemáticos para, a la vez, incorporar ideas de distintas y variadas subdisciplinas y para percibir su disciplina como un todo.

Solitones. Uno de los logros más notables que se han conseguido en la segunda mitad del siglo XX y que además ilustra con claridad la unidad subyacente de las Matemáticas es la Teoría de Solitones. Los solitones son ondas nolineales que exhiben un comportamiento extremadamente inesperado e interesante.

Permítanme que les ponga en antecedentes. Tradicionalmente, hablamos de dos tipos de ondas. Las primeras, las ondas lineales, son las ondas familiares de la vida diaria, como, por ejemplo, las ondas de luz y las ondas de sonido. Estas ondas tienen velocidad constante, sea cual sea su forma: un Do sostenido viaja a la misma velocidad que un Fa bemol. Y, además, tienen longitud de onda constante: un Do sostenido sigue siendo un Do sostenido si lo oyes a una manzana de distancia. Las ondas lineales también obedecen al llamado principio de superposición: si tocas varias notas simultáneamente en un piano, siempre escucharás la suma de todas esas notas a la vez, y esto es lo que produce armonía. Por muy complicado que sea un sonido se puede descomponer en los armónicos que lo constituyen.

Las otras ondas, las no lineales, son menos familares y son bien distintas de las lineales. Una ola en el mar aproximándose hacia la orilla es un buen ejemplo de onda nolineal. Obsérvese que ahora la amplitud, la longitud de onda y la velocidad, van variando según avanza la ola, mientras que en las ondas lineales éstas son constantes. La distancia entre las crestas va decreciendo, la altura de las olas va creciendo mientras van percibiendo el fondo, y la velocidad cambia; la parte superior de la ola se adelanta sobre la inferior, cae sobre ella y la ola rompe. Hay fenómenos aún más intrincados como el de dos olas que se cruzan, interactúan de forma complicada y nolineal, y dan lugar a tres olas en lugar de dos.

Ahora llegamos a los solitones. La historia comienza en 1834 cuando el ingeniero escocés John Scott Russell investigaba el diseño más eficiente de un bote para navegar por un canal. Cierto día, observó que, en canales poco profundos, las olas se comportaban de forma peculiar. Las olas pueden viajar largas distancias a velocidad constante sin cambiar su forma, pero las de amplitud grande viajan más rápidamente que las de amplitud pequeña. Una ola grande puede alcanzar a una pequeña, y como resultado de complejas interacciones, la ola grande emerge avanzando a mayor velocidad que la pequeña. Tras esta interacción nolineal las dos olas siguen su camino comportándose como ondas lineales.

A mediados del siglo XX, un equipo de investigación en Matemáticas estaba estudiando la ecuación de ondas nolineal. Como esta ecuación describe ondas nolineales, ellos esperaban que sus soluciones exhibieran en algún momento singularidades, o roturas, tal y como se observa en las olas que se cruzan, interactúan y se rompen de forma nolineal. Escribieron un programa de ordenador para resolver la ecuación numéricamente y descubrieron, para su sorpresa, que la onda no se rompía como habían previsto. Esto les llevó a la ecuación de Korteweg-de Vries, que había sido escrita cien años antes con el propósito de describir el comportamiento de olas en aguas poco profundas, y descubrieron que el fenómeno que Russell había descrito se podía demostrar matemáticamente usando esa ecuación; en otras palabras, las soluciones de la ecuación de Korteweg-de Vries exhiben comportamiento solitón. Se trata de ecuaciones extremadamente inusuales porque los solitones se comportan como ondas lineales unas veces y como ondas nolineales otras.

Este descubrimiento provocó una enorme actividad investigadora que puso de manifiesto, de una forma muy hermosa, la unidad de las Matemáticas. Concurrían aquí desarrollos en Computación y en Análisis Matemático, que es la forma tradicional de estudiar las ecuaciones diferenciales. Resulta que estas soluciones pueden ser entendidas mediante elegantes construcciones de Geometría Algebraica. Las soluciones están también íntimamente ligadas a la Teoría de Representaciones, porque estas ecuaciones poseen un número infinito de simetrías ocultas.

Finalmente, estas ecuaciones también están relacionadas con cuestiones de Geometría elemental. Por ejemplo, un problema interesante es el de encontrar la superficie de un cono con volumen dado, pero con la menor área entre todas las superficies con una frontera dada. No es ni mucho menos evidente que este problema pueda tener algo que ver con las olas de aguas poco profundas, pero la verdad es que sí que tiene que ver. Las ecuaciones diferenciales que describen las soluciones de este problema exhiben el mismo comportamiento de solitones que las ecuaciones que describen las olas de aguas poco profundas. De manera que hemos empezado con dos problemas matemáticos, uno en Física Matemática y otros en Ecuaciones Diferenciales, y hemos encontrado que los dos exhiben ese mismo comportamiento tan interesante y extraño que tienen lo solitones.

Las Matemáticas y las demás ciencias. Las Matemáticas no sólo han sido capaces de romper sus barreras internas, sino que ahora interactúan con otras ciencias y con las empresas, las finanzas, las cuestiones de seguridad la gestión, la toma de decisiones y la modelización de sistemas complejos. Y algunas de estas disciplinas, por su parte, están retando a los matemáticos con nuevas clases de problemas interesantes que, a su vez, están dando lugar a nuevas aplicaciones.

Las Matemáticas y la Física Teórica. No hay mejor ilustración para este último asunto que la Física Teórica. La Geometría Algebraica está siendo utilizada por los físicos teóricos en su búsqueda de una teoría unificada de campos, o de manera más precisa, de una teoría que unifique la gravedad con las tres fuerzas fundamentales de la Física: la fuerza nuclear fuerte, la fuerza nuclear débil, y el electromagnetismo.

Uno de los candidatos con mejores posibilidades para esa nueva teoría unificada de campos es la Teoría de Cuerdas. El nombre procede de la idea de que los bloques básicos más elementales de la materia son diminutos lazos vibrantes o segmentos que tienen forma de cuerda y que vibran en distintos modos, como las cuerdas de un violín. Los esfuerzos encaminados a entender esta teoría tan compleja han llevado a un grupo de físicos teóricos tan adentro en los territorios de las Matemáticas que han sido capaces de pronosticar resultados matemáticos sorprendentes que sólo recientemente, y poco a poco, empiezan a verificarse. Estos resultados están estimulando una gran actividad de trabajo que sigue aportando verosimilitud a esa teoría, y hasta ha dado lugar a una nueva rama de la Matemática de cuatro dimensiones que se conoce como Geometría Cuántica que, a su vez, está abriendo nuevas vistas en Física.

Otra indicación de la estrecha relación entre Matemáticas y Física la podemos ver en las Medallas Fields que se concedieron en 1998. La medalla Fields es la máxima distinción que se concede en Matemáticas. De los cuatro galardonados, tres de ellos trabajan en áreas con una fuerte influencia de la Física; además se concedió un premio especial por trabajo en computación cuántica, que tiene sus raíces en la Mecánica Cuántica.

Las Matemáticas y las Ciencias de la Vida. Una de las colaboraciones que más rápidamente crecen es la que se da entre las Matemáticas y la Biología. Esta asociación comenzó en el campo de la Ecología en los años 20, cuando el matemático italiano Vito Volterra desarrolló los primeros modelos de la relación depredador-presa y encontró que podía describir matemáticamente la sucesiva oscilación de las proporciones de depredadores y de presas en poblaciones de peces. Tras la Segunda Guerra Mundial, la metodología de modelización que Volterra había desarrollado para poblaciones se extendió a la Epidemiología, el estudio de las enfermedades en poblaciones grandes.

Recientemente, los avances en la Genética Molecular han inspirado la adaptación de estos mismos métodos a las enfermedades infecciosas, donde los objetos de estudio no son poblaciones de organismos o de gente, sino poblaciones de células. En un entorno célular, el depredador es una población de virus, por ejemplo, y la presa es una población de células humanas. Estas dos poblaciones crecen y disminuyen en un combate darwiniano por sobrevivir, que se puede describir matemáticamente. En el último decenio, la capacidad para usar modelos matemáticos para describir agentes infecciosos como depredadores y células anfitrionas como presas, ha redefinido muchos aspectos de la Inmunología, la Genética, la Epidemiología, la Neurología y el diseño de medicamentos. La razón por la que esta colaboración está teniendo tanto éxito se debe a que los modelos matemáticos aportan potentes herramientas para describir la inmensa cantidad de números y de relaciones que se hallan presentes en los sistemas biológicos.

Por ejemplo, los biomatemáticos han podido realizar predicciones cuantitativas sobre cómo los virus y otros microbios se desarrollan en sus anfitriones, sobre cómo cambian la estructura genética de sus anfitriones, y sobre cómo interactúan con el sistema inmunológico del anfitrión. Alguno de los resultados más sorprendentes se han obtenido en el estudio de la epidemia de SIDA, transformando nuestra forma de entender el comportamiento del virus VIH en pacientes infectados. El punto de vista predominante había sido que los virus VIH permanecían en estado latente durante unos 10 años antes de empezar a infectar las células anfitrionas y producir la enfermedad. La modelización matemática ha mostrado que los virus VIH que eran responsables de casi todo el daño no permanecían latentes, sino que crecían constante y rápidamente con una vida media de tan sólo dos días.

Si esto es así, ¿cómo es que entonces la infección tarda una media de 10 años en empezar? De nuevo, la modelización matemática ha mostrado cómo la progresión de la enfermedad puede ser causada por evolución vírica. El sistema inmunológico es capaz de mantener a raya el virus durante largo tiempo, pero a la larga los virus van mutando hasta hacerse lo suficientemente abundantes como para aturdir al sistema inmunológico. Esto ocurre porque los virus, como otros agentes infecciosos, se pueden reproducir más rápidamente que sus anfitriones, y porque replican su material genético de forma menos precisa. Prácticamente todas las infecciones por VIH se ven como procesos evolutivos en los que las poblaciones de virus cambian constantemente y donde nuevos virus mutantes emergen continuamente. La selección natural favorece las variantes que son capaces de esquivar las respuestas del sistema inmunológico, o que infectan una mayor variedad de células del cuerpo humano, o que se reproducen más rápidamente. Los modelos muestran que todos los cambios evolutivos incrementan la abundancia de virus en el paciente y por consiguiente aceleran la enfermedad. Estos mismos modelos matemáticos han permitido entender por qué las drogas contra el VIH deben administrarse en batería, y suministrarse cuanto antes en el proceso de infección. Estas drogas son más eficaces al combinarse porque rara vez se producen múltiples mutaciones a la vez. Y deben suministrarse pronto, antes de que la evolución vírica pueda progresar.

La resistencia de los microbios a los medicamentos es una amenaza para la salud de la humanidad en el próximo siglo, y esta es otro área donde los modelos matemáticos pueden ser muy útiles. Pueden aportar guías para cómo recoger y analizar datos que permitan fabricar medicamentos más eficaces. Buenos modelos de las complejas interacciones entre los agentes infecciosos y el sistema inmunológico podrían dar lugar a una nueva disciplina de inmunología cuantitativa.

Hay muchas otras colaboraciones entre las Matemáticas y las otras ciencias. Gran parte del trabajo más innovador se está llevando a cabo en las fronteras entre campos y disciplinas. Un ejemplo excelente es el estudio de la dinámica de fluidos. Era virtualmente imposible describir los complejos movimientos de los fluidos -huracanes, flujo sanguíneo a través del corazón, petróleo en terreno poroso- antes de que se descubriera que un objeto puramente matemático, al que se conoce como ecuaciones de Navier-Stokes, permitía justamente eso. Otro ejemplo es la Teoría de Control, una rama de la Teoría de Sistemas Dinámicos, que permite poner a prueba los diseños de aviones avanzados mediante simulaciones por ordenador, reduciendo enormenente los costes y los riesgos que conllevan los túneles de viento y los vuelos de prueba.

Conviene resaltar que, aunque la modelización y la simulación son temas modernos e importantes, aún no están lo suficientemente desarrolladas como para resolver las incertidumbres presentes en estas simulaciones complejas. Una de las más importantes prioridades de la investigación matemática es la de aprender a enfrentarse con la incertidumbre inherente a la simulación. Los matemáticos deben desarrollar enfoques fundamentalmente nuevos si es que quieren entender cómo aparece y se propaga la incertidumbre en las simulaciones y en los inodelos. Nuestros modelos sólo pueden ser tan exactos como lo sea nuestra capacidad de reducir la incertidumbre.

4 LOS RETOS DE LA INVESTIGACIÓN MATEMÁTICA DEL SIGLO XXI

A pesar de los tremendos logros de las matemáticas del siglo XX, docenas de problemas notables todavía esperan solución. La mayoría de nosotros estaremos de acuerdo en que los tres que comento a continuación, se encuentran entre los más estimulantes e interesantes.

La Hipótesis de Riemann. El primero de todos es la Hipótesis de Riemann, que ha atormentado a los matemáticos durante 150 años. La Hipótesis de Riemann tiene que ver con el concepto de números primo, que es la pieza básica de la aritmética. Un número primo es un número entero positivo mayor que 1 que no puede dividirse por ningún número positivo excepto por 1 y por sí mismo. La serie de los números primos comienza con 2, 3, 5, 7, 11, 13, y continúa sin límite. Nada menos que en el siglo III antes de Cristo, Euclides
ya había demostrado que no se podía hallar un número primo que fuera el más grande de todos ellos; en otras palabras, que había infinitos números primos.

Pero, ¿siguen alguna pauta? En primera inspección uno podría creer que los números primos van surgiendo aleatoriamente. Pero en el siglo XIX, el matemático alemán Bernhard Riemann extendió la observación de Euclides y afirmó que no sólo había infinitos números primos sino que se iban sucediendo según una pauta muy sutil y precisa. Demostrar que esto es así (o que no lo es) es quizás el problema más profundo que existe en la Matemática pura.

La conjetura de Poincaré. Este problema es desconcertante porque, a la vez, es muy fundamental y tiene una apariencia muy simple. En los días de Poincaré, hace un siglo, se consideraba como una cuestión trivial al igual que toda la Topología, un área de las Matemáticas que, en esencia, él había inventado. La Topología de hoy en día es un área vital y significativa de las Matemáticas.

Grosso modo, la topología se interesa por las propiedades fundamentales de las estructuras y de los espacios. Desde el punto de vista de un topólogo, se puede estirar, comprimir o torcer una esfera y seguirá siendo una esfera, siempre y cuando no la pinchemos o la rasguemos. Un topólogo ve un donut y una taza de café como la misma cosa, porque puede deformar cualquiera de ellos hasta obtener una forma básica común a ambos, a la que se llama toro. Los topólogos están particularmente interesados en las variedades, nombre que sugiere multiplicidad de formas. Un balón de fútbol, por ejemplo, es una variedad de dimensión 2, una 2-esfera; lo podemos manipular como queramos, pero sin romperlo, y seguirá siendo un balón de fútbol.

El objetivo de los topólogos es identificar todas las variedades posibles, incluyendo la forma del universo, que es el tema de la conjetura de Poíncaré. Esto es relativamente fácil en 2 dimensiones, y se consiguió al final del siglo XIX. El criterio para comprobar si una variedad es una 2-esfera es muy simple. Imagine el lector que coloca una goma elástica en la superficie de un balón de fútbol. Si la goma se puede comprimir (sin salirse de la superficie) hasta ocupar un solo punto, y esto en cualquier parte de la superficie, el balón es una 2-esfera y decimos que es simplemente conexa.

En 1904, Poincaré conjeturó que lo que es válido en 2 dimensiones lo sería también en 3 y que cualquier variedad de dimensión 3 que sea simplemente conexa (como el universo en que habitamos) ha de ser una 3-esfera. Esto parece obvio, pero nadie ha sido capaz hasta ahora de demostrar que no hay 3-esferas espurias, de manera que la conjetura no ha sido resuelta. Por sorprendente que pueda parecer, la conjetura análoga para dimensiones mayores que 3 sí ha sido comprobada, pero la dimensión tres se resiste.

¿P=NP? Este problema, el tercero en nuestra lista, está íntimamente ligado al problema filosófico de discriminar lo que se puede llegar a conocer y lo que no. En 1931 el lógico Kurt Gödel, austríaco de nacimiento, estableció que no se podía alcanzar la certeza absoluta en la aritmética, suponiendo que la aritmética se fundamente en ciertas propiedades de los números enteros,
evidentes en sí mismas, o axiomas. En la Teoría de la Computación, Alan Turing fijó en los años 30 las reglas para discernir entre lo que es computable y lo que no lo es. Una cuestión más refinada es preguntarse lo que es computable en tiempo polinomial, o en tiempo P. En el conocido problema del viajante, por ejemplo, tiempo polinomial significa que se puede escribir un programa de ordenador para calcular el mejor recorrido para visitar n ciudades en un tiempo razonable, entendiendo por razonable un tiempo de n^2 o de n^3.

En problemas cada vez más complejos, el tiempo de computación puede crecer exponencialmente, hasta transformarse en computacionalmente intratable o NP. Por ejemplo, la mayoría de los códigos criptográficos de hoy en día se basan en la hipótesis de que factorizar números grandes es computacionalmente intratable.

En el momento presente se están sucediendo desarrollos muy interesantes sobre la cuestión P contra NP que podían estar relacionados con el teorema de incompletitud de Gödel. Según parece, ciertos enunciados matemáticos entre los que se incluyen los que se refieren a cotas inferiores de tiempo de encriptación, tales como P no es NP, no se pueden demostrar dentro del marco de la Aritmética de Peano, que es la forma estándar y más natural de la Aritmética. No se ha podido demostrar esta tesis todavía, pero su resolución parece factible en un futuro inmediato. Lo que sí se sabe es, que todas las técnicas que hasta ahora se han venido usando para demostrar cotas inferiores en modelos computacionales, residen en un fragmento inicial específico de la Aritmética de Peano. Más aún, las técnicas empleadas hasta ahora son incapaces de distinguir entre P y NP, a menos que se disponga de algoritmos mucho más rápidos para la factorización de enteros de los que ahora se conocen o cuya existencia siquiera se sospecha. En otras palabras, discriminar entre problemas P y NP dependerá en última instancia de si podemos factorizar enteros mucho más rápidamente de lo que pensábamos que pudiera ser posible.

Computación Teórica. El área que estamos discutiendo, la Computación Teórica, es uno de los campos de investigación científica más importantes y activos del momento presente. La Computación Teórica se inició hace medio siglo, antes de que existieran los ordenadores, cuando Alan Turing y sus contemporáneos se propusieran definir matemáticamente el concepto de computación y estudiar sus límites y posibilidades. Estos estudios dieron lugar a la construcción, por Von Neumann, del primer ordenador permitiendo así la revolución informática de la que somo testigos.

La utilidad práctica de los ordenadores y la inesperada profundidad del concepto de computación han ampliado de manera significativa el alcance de la Computación Teórica (CT). En el último cuarto de siglo la CT ha crecido hasta convertirse en un rico y hermoso campo científico pleno de conexiones con otras ciencias y capaz de atraer a científicos de primera fila. Describiré a continuación algunos aspectos de esta evolución.

Primeramente, hay que señalar el cambio de enfoque que supuso pasar de la noción de computación al concepto mucho más esquivo de computación
eficiente. Se formuló la noción fundamental de completitud-NP, se fue entendiendo gradualmente el impacto casi universal de esta noción y se establecieron metas a largo plazo tales como resolver la cuestion de P contra NP. Asimísmo se desarrollaron la Teoría de Algoritmos y una amplia gama de modelos computacionales. La aleatoriedad entró en juego como recurso y herramienta fundamental revolucionando de paso la Teoría de Algoritmos.

Es significativo que la emergencia, en la Teoría de la Complejidad, de la noción de función de una vía, en conjunción con el uso de la aleatoriedad, haya conducido al desarrollo de la moderna criptografía. Lo que mucha gente pensó al principio que no eran sino ejercicios mentales, tales como jugar al póquer sin cartas, ha dado lugar a una potente teoría y a sistemas prácticos de la mayor importancia económica. La Teoría de la Complejidad, cuyo principal objetivo es la clasificación de los problemas según su dificultad computacional, ha ido integrando muchas de estas ideas y propiciando el estudio de la complejidad de las demostraciones, cuya meta es cuantificar aquello que constituye una demostración.

El desarrollo de la Computación Teórica se ha visto impulsado no sólo por estas actividades internas sino además por un fértil intercambio de ideas con áreas como la Combinatoria, el Álgebra, la Topología y el Análisis. Además, los problemas fundamentales de la CT, como P contra NP, se han destacado como prominentes problemas centrales de toda la Matemática. Cada vez más los matemáticos se interesan por los aspectos computacionales de sus campos de estudio tradicionales. En otras palabras, partiendo del hecho de que un objeto existe se pasa a la cuestión de ¿cuánto se tarda en encontrarlo?

Un último aspecto de la CT, que para mucha gente es el más interesante, es que este campo científico se superpone ahora sobre una nueva y amplia gama de cuestiones algorítmicas de las otras ciencias. En estos problemas, los datos de salida de los algoritmos no están del todo bien definidos y podrían ser casi cualquier tipo de datos: una foto, un sonograma, datos suministrados por el telescopio espacial Hubble, cotización de acciones de Bolsa, sucesiones de ADN, registros neuronales de animales cuando reaccionan ante distintos estímulos. Los modelos matemáticos se usan para dar sentido a estos datos y predecir sus valores futuros.

La propia noción de computación, y lasprincipales cuestiones que la rodean, ha adquirido un profundo significado filosófico. Aparte de la cuestión de P contra NP, la CT ha formulado algunas otras preguntas claras y de profundo interés, tales como ¿puede la aleatoriedad ayudar en la computación? ¿qué es lo que hace que un teorema sea difícil de probar? o ¿se puede simular la mecánica cuántica con medios clásicos? El terreno está abonado para que se produzca un crecimiento apasionante y una forma fundamentalmente nueva de entender este campo de la Computación Teórica.

Computación Cuántica. Otro área nueva y apasionante de investigación es la Computación Cuántica. Este área está íntimamente relacionada con la cuestión de P contra NP por mor de una sorprendente demostración de 1994. Se descubrió entonces que, si se pudiera construir un ordenador cuántico, se podría descifrar cualquiera de los códigos que habitualmente se emplean en las comunicaciones actuales y que tan seguros se suponen.

La necesidad de formas fundamentalmente nuevas de computación es acuciante, particularmente para los modelos complejos de simulación. Aunque los ordenadores actuales son extremadamente rápidos, todavía usan el sistema clásico de cálculo binario con ceros y unos que data de la máquina de sumar de George Boole de hace 150 años. Hasta hace bien poco este sistema se ha considerado suficiente, sobre todo a la vista de la Ley de Moore, la observación de que la capacidad de los chips de los ordenadores se duplica cada dos años, mientras que sus precios caen a la mitad. Esto ha sido posible gracias a constantes mejoras en ingeniería y a la producción de chips cada vez más pequeños. Pero ahora nos estamos aproximando a los límites que la Mecánica Cuántica impone sobre cuán pequeños pueden llegar a ser los chips.

Estos límites ya fueron previstos en 1982, cuando Richard Feynman predijo que los esfuerzos para simular sistemas de Mecánica Cuántica en ordenadores digitales estaban lastrados con inevitables carencias, aunque en una larga nota al margen propuso que esta dificultad se podría soslayar mediante alguna forma de ordenador cuántico. En 1985, David Deutsch estimuló la discusión al sugerir que si los ordenadores cuánticos podían ser lo suficientemente rápidos para resolver problemas de Mecánica Cuántica entonces, podrían resolver problemas clásicos más rápidamente.

Parece ser que es así. En 1994, Peter W. Shor demostró que un ordenador cuántico podría factorizar números grandes en un tiempo que es una potencia del tamaño del número, mejorando exponencialmente, en cuanto a velocidad, los algoritmos clásicos. Ese resultado supuso dos sorpresas. Primera, los criptógrafos de hoy usan números grandes como códigos de seguridad porque son muy difíciles de factorizar, algo que un ordenador cuántico podría hacer muy rápidamente. Segunda, los estudiosos de la Computación Teórica creían que ningún tipo de computación podía ser mucho más rápido que el de los ordenadores digitales convencionales.

Por otro lado, los científicos experimentales no saben a ciencia cierta como construir esos ordenadores cuánticos. Mientras se persigue esta posibilidad se están desarrollando otros esfuerzos paralelos para diseñar ordenadores basados en principios distintos del de la artimética Booleana, todos con el propósito de expandir la capacidad de computación. Vamos a asistir en los próximos años, con seguridad, a intensos y apasionantes trabajos sobre estas ideas.

5 CÓMO MANTENER EL VIGOR DE LAS MATEMÁTICAS EN EL SIGLO XXI

En su mayor parte, este ensayo ha estado dedicado a explicar tendencias y problemas de investigación. Sin embargo, sería irresponsable discutir investigación sin mencionar el contexto en que ocurre. El éxito de la investigación depende de la calidad de la gente que la hace y del grado en que recibe apoyo sostenido por parte de la sociedad; en otras palabras, requiere capital paciente. El próximo milenio nos traerá una serie de cuestiones de contexto que supondrán retos tan importantes como los propios problemas de investigación que queremos resolver.

Educación. Primero, ¿cómo podemos atraer a los mejores jóvenes talentos hacia las matemáticas? El último medio siglo ha sido testigo de una significativa evolución. Durante la Segunda Guerra Mundial, el sistema y las técnicas de la Ciencia y la Tecnología generaron tal entusiasmo que muchos jóvenes estudiantes de la posguerra se sintieron atraídos hacia carreras en investigación científica. Esta tendencia recibió un notable estímulo en 1957 cuando la Unión Soviética lanzó al espacio el satélite Sputnik y la Ciencia pasó a ser reconocida por el poder político y económico que podía generar. La investigación científica se hizo tan importante para la sociedad como fascinante para los investigadores.

Sin embargo, el final de siglo ha visto cómo el interés social por muchas campos de investigación científica ha decaído en muchos países. Las Matemáticas y la Ciencia, salvo quizás las Ciencias Biomédicas, han perdido importancia para la sociedad y no ofrecen ahora oportunidades profesionales atractivas. Tanto en los países desarrollados como en aquellos en vías de desarrollo, muchos estudiantes brillantes, que en otros tiempos hubieran escogido carreras en Matemáticas, eligen ahora carreras en Informática, la empresa y otros campos donde el futuro parece más prometedor. Se constata, sin dificultad, una falta de aprecio por la riqueza y relevancia de la Ciencia.

Es irónico que el interés de los estudiantes esté en un punto tan bajo cuando nunca antes las oportunidades profesionales para los matemáticos han sido tantas y tan diversas. Esto no sólo es cierto para las áreas tradicionales que están floreciendo con ricos y nuevos desarrollos y retos, sino también en las aplicaciones, donde la demanda de matemáticos con entrenamiento adecuado no cesará de crecer en el futuro inmediato. La primera razón responsable del desinterés de los estudiantes es que no comunicamos una imagen completa de las Matemáticas como una disciplina en la que uno puede escoger entre una amplia gama de carreras, que ofrecen a la vez retos y gratificación intelectual.

Quienes en mejor posición se hallan para poder transmitir este atractivo son, sin duda, los profesores de Secundaria y los de Universidad, y también, los antiguos estudiantes. Sin embargo, éstos sólo pueden describir las actuales oportunidades profesionales y las áreas en rápido desarrollo, si ellos, a su vez, se informan hablando con los propios profesionales. La comunidad matemática, por consiguiente, se enfrenta a un reto crítico: propiciar una mayor interacción a todos los niveles desde la educación hasta la práctica profesional y ampliar los canales de comunicación con los estudiantes que en su momento nos han de reemplazar y continuar nuestro trabajo en el siglo XXI.

Comunicación. Hay una estrecha relación entre nuestras necesidades educativas y la conveniencia de comunicarnos con la sociedad, educándola en asuntos de Matemáticas. Por supuesto que los matemáticos entienden y valoran su propio trabajo, pero mucha gente en la administración, las empresas, e incluso, en educación no son partícipes de este aprecio. Para que la investigación que desarrollan en las universidades sea financiada con fondos públicos es perentorio que los matemáticos le presenten a la sociedad una imagen más vívida de esa investigación y de su poder para profundizar en nuestro conocimiento y mejorar nuestra calidad de vida. No podemos permanecer impasibles ante las necesidades de la sociedad y continuar trabajando en una torre de marfil.

La cultura del próximo milenio será interactiva y participativa. Los matemáticos no pueden dejar pasar la oportunidad de no sólo colaborar con otros matemáticos y científicos, sino de, además, acercarse a la comunidad en su conjunto. Los matemáticos están particularmente capacitados para articular el poder que las Matemáticas tiene para catalizar avances importantes en Ciencia y salud, para promover el uso de poderosas herramientas para la economía, para la mejora de la eficacia, y para explorar las pautas y las verdades del mundo en que vivimos.

Pluridisciplinaridad. Finalmente, la tendencia hacia la pluridisciplinaridad se merece una mención especial. Hemos visto cómo en las Matemáticas gran parte del trabajo más productivo se está llevando a cabo en las fronteras entre áreas y disciplinas. Las Matemáticas pierden cuando se aíslan o se fragmentan ajustándose a compartimentos disciplinares. Sin embargo, muchas instituciones no están reaccionando con la celeridad requerida. Las universidades de todo el mundo, muchas industrias y las propias administraciones estatales tienen mucho que ganar si eliminan las barreras que dificultan la colaboración.

En particular, es mucho lo que se puede hacer para reforzar la interacción entre los matemáticos académicos y los que trabajan en la industria. Las misiones primordiales del mundo académico y de la industria son radicalmente diferentes; sin embargo, las dos culturas tienen mucho que aprender la una de la otra y podrían beneficiarse si colaborasen. En general, la actividad científica sólo puede funcionar a plena potencia cuando los conocimientos fluyan sin tardanza entre los creadores y los usuarios de las matemáticas.

El próximo milenio. La globalización, la interdisciplinaridad y la apertura de la actividad matemática son tendencias nuevas y potentes. Como apunte de los tiempos venideros queremos resaltar el modo en que Thomas Hales decidió anunciar su demostración del problema de Kepler del empaquetamiento de esferas. En lugar de publicar su trabajo en una revista científica, a la que normalmente sólo tiene acceso un reducido número de especialistas, decidió exhibirlo a través de Internet ante una audiencia ilimitada. Y no sólo esto, sino que además instó abiertamente a que se revisara en detalle su demostración e invitó a que se aportaran ulteriores contribuciones; dando lugar así a una significativa novedad en el tan competitivo mundo de la alta Matemática.

Los matemáticos nos planteamos dos objetivos ahora que entramos en un nuevo milenio. El primero es el de ser capaces de mantener la tradicional fortaleza de nuestra investigación básica, que es semillero de nuevas ideas y nuevas aplicaciones. El segundo es ampliar nuestro contacto con el mundo que está más allá de la Ciencia. Cada año que pasa, los matemáticos van consiguiendo ser más eficientes en el trabajo que ofrecen a los demás y en la tarea de incorporar a otros al mundo de las matemáticas.

Phillip Griffiths, Institute for Advanced Study
Olden Lane, Princeton, NJ 08540-0631, Estados Unidos de América
e-mail: pg@ias.edu