En el laboratorio de patentes para mejoras sociales no dejaban de llegar propuestas de colectivos para
mejorar distintos aspectos de la consola DLA™(Daily Life Assistant), obligatoria para todos los posthumanos integrados.
Mis trabajos como asistente de las mindmachines eran esporádicos y lo único que tenía que hacer, cada uno o dos meses, era comprobar que las baterías de pruebas realizadas me parecían suficientes y completas, realizar las pruebas complementarias que creyese necesarias y finalmente dar la orden de confirmación de integración del SW en la consola, una vez que las máquinas y yo habíamos evaluado todos los casos de uso y defecto del nuevo evolutivo.
Mi distintivo de tecnócrata ya denotaba que, para mi y mi entorno, la confianza en las mindmachines y su experiencia reforzada por años y años de estadísticas se había convertido en una fe ciega pero justificada, una fe racional.
Así que pocas veces había modificado las baterías de pruebas incluyendo más, porque mis queridas compañeras eran realmente exhaustivas.
No entendí muy bien como había llegado tan lejos la propuesta de integrar un módulo de Respaldo de Decisiones, pero la gente de hoy en día ha dejado de tener sentido común para confiar ciegamente en el sentido comunitario.
No me parecía inútil en el sentido concreto de la palabra, pero sabía que cuando la noticia llegara a los movimientos ante-posthumanistas se iba a montar un buen revuelo.
Pero aún en el caso de que considerara mínima mi responsabilidad sobre este proceso, mi orgullo nucleofamiliar se sentiría herido si mi nombre fuera destacado en alguno de los medios de información no respaldada (que eran más poderosos que los medios de información corporativos) por todo esto.
Y para mi, mi nucleofamilia era lo más importante.
El objetivo del módulo de Respaldo de Decisiones es el siguiente: ante situaciones condicionales o de selección, cuando el EmotionController detecta curvas exageradas en el usuario (es decir, que el usuario no puede tomar una decisión sin provocarle emociones encontradas o contradictorias, lo que llamamos desasosiego), la situación se modeliza y es valorada por el resto de la comunidad integrada.
Por ejemplo, ante la situación "mi androide ya no tiene más actualizaciones, y por tanto puede ser
peligroso para el entorno pero aún así no me gustaría deshacerme de él", si el EmotionController
no da una única respuesta dentro de la curva, el nuevo evolutivo lanza una consulta al sistema global de valoraciones en el que "el público" escoge entre uno de los dos caminos (por ahora estamos testeando solo en bifurcaciones binarias). Se recogen los resultados de la encuesta y se proporciona al usuario una respuesta al módulo de acción.
De esta manera el usuario puede descargarse de la responsabilidad de elegir , y sobre todo puede sentirse
respaldado en su decisión, con las decisiones del resto de los integrados.
La moral pertenece a todos y es nuestra labor hacerla líquida, como ya pasó años atrás con sistemas sociopóliticos como la democracia o el control de cotas en el precio de productos y servicios.
El estado de análisis de las mindmachines, para esta propuesta, estaba en ese momento en un 68% y observé que les estaba costando evaluar la viabilidad de la herramienta.
Anteriormente hubo un módulo similar para decisiones "difíciles" (sobre todo orientado al sector socio-sanitario y de reparto) pero se basaba en reglas estrictamente lógicas y estáticas, por lo que era poco versátil en algunos momentos.
Cansado de esperar, desconecté y volví a mi entorno familiar.
Al cabo de una semana, volví a conectarme para comprobar la evolución del análisis para la dichosa propuesta y otras cinco pendientes que se integrarían en la consola en la siguiente actualización global.
Ya tenía diseñado un plan de pruebas que las mindmachines tenían que haber ejecutado, cuando detecté que el proceso de análisis estaba en el 99%.
Nunca habían tardado tanto en evaluar un evolutivo nuevo.
Esperé expectante viendo los paneles de control ralentizados durante horas, y al fin la interfaz humana de la mindmachine principal me comunicó que el análisis había concluido.
El estudio de viabilidad había terminado con un 50,000 % EXACTO.
Tuve que levantarme un segundo y desconectar, tropecé con una de las estúpidas robomascotas de Eleanor y maldecí en silencio ser el único en mi entorno familiar que tuviera alguna responsabilidad social retribuida.
No lo podía creer. Nunca me había sucedido algo parecido.
Consulté todos los logs, pero la cantidad de información no computable era tan grande que ni siquiera con apoyo hubiera podido procesar y concluir algo de todo ese frustrante revoltijo de contradicciones.
Mi fe se tambaleaba puesto que las máquinas habían decidido poner en nuestras manos de nuevo aquello que habíamos rechazado por doloroso, por angustioso, por inquietante: la libertad de elegir lo mejor.
La pelota estaba de nuevo en nuestro tejado.
En mí tejado, exactamente, golpeando una y otra vez la misma teja que empezaba a resquebrajarse.
Lo único que se me ocurrió fue desafiar al propio experimento, y desde la consola de simulaciones lancé la siguiente pregunta
"¿debería dar por buena una actualización que implique que las decisiones difíciles sean tomadas por todos los integrados y que repercutan en sus módulos de acción sin intervención, con lo que la mayoría de ellos concluyan?"
El simulador procesó la pregunta, la modelizó y lanzo el sondeo al centro global de valoraciones.
Durante un rato se quedó procesando la información que los integrados iban contestando.
Recogí los resultados.
Y tuve que acompasar mi pulso y mi temperatura a través de la bioprótesis porque de nuevo, el resultado, era del 50,000% !
Lo primero que pensé es que estaba ante un hito de nuestra era, las mindmachines habían desarrollado sentido del humor y me estaban tomando el pelo. No me parecía confiable un resultado exacto, y mucho menos del 50%.
No podía acudir a nadie, me habían puesto en este lugar para solventar estas eventualidades, pero me di cuenta de que no tenía ningún sentido que pesara sobre mi una decisión que máquinas y el resto de integrados habían dejado como inconcluyente.
Seguía oyendo esa odiosa pelotita sobre mi. No paraba de oirla.
Con un solo movimiento de ojos podría integrar la mejora en la consola. En ese sentido me parecía que aliviaría a muchos integrados de la misma situación que yo estaba viviendo, con los niveles de desasosiego disparados. Además, en sucesivas mejoras el sistema podría ser realmente útil para realizar un histórico de la moral posthumana.
Con el movimiento de ojos contrario, la mejora quedaría anulada y jamás sabría la respuesta al dilema.
Tic, tac, tic, tac...
Mis ojos se movieron a la derecha, con cierta lentitud, dubitativos, vidriosos, desesperados.
La mejora había sido integrada.
Había podido predecir el alboroto acerca de esta nueva actualización en la sociedad fragmentada en la que vivíamos. Postlibertarios, rechazados, integrados, tecnócratas, corporativistas.... todos tenían algo que decir.
Mi nombre salió en muchos medios, algunos disculpando mi comportamiento, otros ensalzándolo y en otros simplemente comentando la paradoja que se había producido.
Lo que no me cupo en la cabeza fue la reacción de mi familia. En la encuesta simulada que lancé el día de las pruebas, TODOS, contestaron que NO a la pregunta. Eran del 50% de personas que no querían que esta mejora se integrase.
Ahora, inevitablemente, había sido expulsado de mi núcleo familiar y social, puesto que cuando cada uno de ellos utilizó el módulo de Respaldo de Decisiones recién instalado, ante la dolorosa pregunta de "¿debería expulsar de mi familia tecnócrata a un miembro que ha demostrado pensar justamente al contrario que todos
nosotros?", el maldito módulo de Respaldo de Decisiones les contesto, uno a uno, con un porcentaje medio del 98,498% que SI.
No hay comentarios:
Publicar un comentario