infoplc net 53874e7438b38 paletizado

Upload: giuseppe-varriale

Post on 07-Aug-2018

250 views

Category:

Documents


0 download

TRANSCRIPT

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    1/169

    ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA (ICAI)

    INGENIERO ELECTROMECÁNICO ESPECIALIDADELECTRÓNICA

    ROBOTIZACIÓN EN SISTEMASDE PRODUCCIÓN

    Autor: Roberto Zumárraga LizundiaDirector: Álvaro Sánchez Miralles

    MadridMayo 2014

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    2/169

    2

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    3/169

    AUTORIZACIÓN PARA LA DIGITALIZACIÓN, DEPÓSITO Y DIVULGACIÓN EN ACCESO

    ABIERTO ( RESTRINGIDO) DE DOCUMENTACIÓN 1º. Declaración de la autoría y acreditación de la misma.

    El autor D. Roberto Zumárraga Lizundia , como ____estudiante_______ de la UNIVERSIDADPONTIFICIA COMILLAS (COMILLAS),

    DECLARA

    que es el titular de los derechos de propiedad intelectual, objeto de la presente cesión, enrelación con la obra “Robotización en Sistemas de Producción” 1, que ésta es una obra original,

    y que ostenta la condición de autor en el sentido que otorga la Ley de Propiedad Intelectualcomo titular único o cotitular de la obra.

    En caso de ser cotitular, el autor (firmante) declara asimismo que cuenta con elconsentimiento de los restantes titulares para hacer la presente cesión. En caso de previacesión a terceros de derechos de explotación de la obra, el autor declara que tiene la oportunaautorización de dichos titulares de derechos a los fines de esta cesión o bien que retiene lafacultad de ceder estos derechos en la forma prevista en la presente cesión y así lo acredita.

    2º. Objeto y fines de la cesión.

    Con el fin de dar la máxima difusión a la obra citada a través del Repositorio institucional de laUniversidad y hacer posible su utilización de forma libre y gratuita ( con las limitaciones quemás adelante se detallan ) por todos los usuarios del repositorio y del portal e-ciencia, el autorCEDEa la Universidad Pontificia Comillas de forma gratuita y no exclusiva, por el máximo plazolegal y con ámbito universal, los derechos de digitalización, de archivo, de reproducción, dedistribución, de comunicación pública, incluido el derecho de puesta a disposición electrónica,tal y como se describen en la Ley de Propiedad Intelectual. El derecho de transformación secede a los únicos efectos de lo dispuesto en la letra (a) del apartado siguiente.

    3º. Condiciones de la cesión.

    Sin perjuicio de la titularidad de la obra, que sigue correspondiendo a su autor, la cesión dederechos contemplada en esta licencia, el repositorio institucional podrá:

    (a) Transformarla para adaptarla a cualquier tecnología susceptible de incorporarla a internet;realizar adaptaciones para hacer posible la utilización de la obra en formatos electrónicos, asícomo incorporar metadatos para realizar el registro de la obra e incorporar “marcas de agua”o cualquier otro sistema de seguridad o de protección.

    (b) Reproducirla en un soporte digital para su incorporación a una base de datos electrónica,incluyendo el derecho de reproducir y almacenar la obra en servidores, a los efectos degarantizar su seguridad, conservación y preservar el formato. .

    1 Proyecto de Fin de Grado

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    4/169

    4

    (c) Comunicarla y ponerla a disposición del público a través de un archivo abierto institucional,accesible de modo libre y gratuito a través de internet. 2

    (d) Distribuir copias electrónicas de la obra a los usuarios en un soporte digital. 3

    4º. Derechos del autor.

    El autor, en tanto que titular de una obra que cede con carácter no exclusivo a la Universidadpor medio de su registro en el Repositorio Institucional tiene derecho a:

    a) A que la Universidad identifique claramente su nombre como el autor o propietario de losderechos del documento.

    b) Comunicar y dar publicidad a la obra en la versión que ceda y en otras posteriores a travésde cualquier medio.

    c) Solicitar la retirada de la obra del repositorio por causa justificada. A tal fin deberá ponerseen contacto con el vicerrector/a de investigación ([email protected]).

    d) Autorizar expresamente a COMILLAS para, en su caso, realizar los trámites necesarios parala obtención del ISBN.

    d) Recibir notificación fehaciente de cualquier reclamación que puedan formular terceraspersonas en relación con la obra y, en particular, de reclamaciones relativas a los derechos depropiedad intelectual sobre ella.

    5º. Deberes del autor.

    El autor se compromete a:

    a) Garantizar que el compromiso que adquiere mediante el presente escrito no infringe ningúnderecho de terceros, ya sean de propiedad industrial, intelectual o cualquier otro.

    b) Garantizar que el contenido de las obras no atenta contra los derechos al honor, a laintimidad y a la imagen de terceros.

    c) Asumir toda reclamación o responsabilidad, incluyendo las indemnizaciones por daños, quepudieran ejercitarse contra la Universidad por terceros que vieran infringidos sus derechos eintereses a causa de la cesión.

    2 En el supuesto de que el autor opte por el acceso restringido, este apartado quedaría redactado en lossiguientes términos:(c) Comunicarla y ponerla a disposición del público a través de un archivo institucional, accesible demodo restringido, en los términos previstos en el Reglamento del Repositorio Institucional

    3 En el supuesto de que el autor opte por el acceso restringido, este apartado quedaría eliminado.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    5/169

    5

    d) Asumir la responsabilidad en el caso de que las instituciones fueran condenadas porinfracción de derechos derivada de las obras objeto de la cesión.

    6º. Fines y funcionamiento del Repositorio Institucional.

    La obra se pondrá a disposición de los usuarios para que hagan de ella un uso justo yrespetuoso con los derechos del autor, según lo permitido por la legislación aplicable, y confines de estudio, investigación, o cualquier otro fin lícito. Con dicha finalidad, la Universidadasume los siguientes deberes y se reserva las siguientes facultades:

    a) Deberes del repositorio Institucional:

    - La Universidad informará a los usuarios del archivo sobre los usos permitidos, y no garantiza

    ni asume responsabilidad alguna por otras formas en que los usuarios hagan un uso posteriorde las obras no conforme con la legislación vigente. El uso posterior, más allá de la copiaprivada, requerirá que se cite la fuente y se reconozca la autoría, que no se obtenga beneficiocomercial, y que no se realicen obras derivadas.

    - La Universidad no revisará el contenido de las obras, que en todo caso permanecerá bajo laresponsabilidad exclusiva del autor y no estará obligada a ejercitar acciones legales en nombredel autor en el supuesto de infracciones a derechos de propiedad intelectual derivados deldepósito y archivo de las obras. El autor renuncia a cualquier reclamación frente a laUniversidad por las formas no ajustadas a la legislación vigente en que los usuarios hagan uso

    de las obras.

    - La Universidad adoptará las medidas necesarias para la preservación de la obra en unfuturo.

    b) Derechos que se reserva el Repositorio institucional respecto de las obras en él registradas:

    - retirar la obra, previa notificación al autor, en supuestos suficientemente justificados, o encaso de reclamaciones de terceros.

    Madrid, a 29 de mayo de 2014

    ACEPTA

    Fdo………………

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    6/169

    Autorizada la entrega del proyecto:

    Robotización en sistemas de producción

    Realizado por:

    Roberto Zumárraga Lizundia

    LOS DIRECTORES DEL PROYECTO:

    Álvaro Sánchez Miralles

    Fdo: Fecha:

    VºBº DEL COORDINADOR DE PROYECTOS:

    Álvaro Sánchez Miralles

    Fdo: Fecha:

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    7/169

    Contenido

    7

    RESUMEN

    Autor: Zumárraga Lizundia, Roberto

    Director: Sánchez Miralles, Álvaro

    Entidad Colaboradora: FANUC Robotics Italia S.r.l.

    La robótica industrial tal y como se conoce actualmente surgió en 1954, cuando GeorgeDevol creo junto con Joseph F. Engelberger la compañía Unimation, la primera en producir un robot. Originalmente, su función era la de mover piezas de un punto a otro.

    El siguiente gran paso llegó en la década de los 70, cuando varios conglomerados japoneses comenzaron a producir robots, similares al anterior. La robótica industrial hasido desde entonces un sector con un gran desarrollo, en el cual se han invertido grandescantidades de dinero. A medida que el sector evolucionaba, se iban desarrollandonuevas técnicas, aplicables cada vez a más sectores. Se empezó transportando piezas deun sitio a otro, luego empezaron a soldar… Hoy en día, se venden aproximadamente168.000 robots al año, y forman parte de una gran cantidad de sectores: metal,alimentación, farmacéutico, bebidas… Es decir, líneas de producción de cualquier tipo.La robótica permite aumentar la calidad, precisión y velocidad de las cadenas de producción. Al mismo tiempo, mejora la calidad del trabajo de mucha gente, librándolasde desempeñar los trabajos más duros, arduos y non-gratos.

    El objetivo de este proyecto será mostrar las funciones de un robot dentro de una línea de producción automatizada. Se mostrarán dos tipos de aplicación de un robot: pick and place y paletizaciones. Éstas son las más comunes. Por ejemplo, se cogen las piezas desde un pallet yse depositan en una máquina. Una vez acabado el proceso de elaboración de la pieza, dondese utilizan robots para llevar la pieza de una máquina a otra, las piezas salen ya elaboradas auna cinta transportadora. Se necesitará de otro robot que ordene estas piezas, ya sea portamaño, color... Finalmente, se deberán coger las piezas ya acabadas ordenadas y prepararlas para ser expedidas, es decir, se paletizarán.

    METODOLOGÍA

    Se tratarán sistemas de pick and place, y luego, sistemas de paletización. Se trataránasimismo otros temas relacionados, como estudio de las inercias de la pinza del robot, ymedidas de seguridad llevadas a cabo en implantes. Se dotarán datos técnicos del robot(hardware, conexiones con el controlador, tipos de señales que gestiona el robot),detalles sobre la programación y otros datos en los anejos.

    Todos los sistemas robóticos tratados, así como diferentes estudios que se desarrollan a

    lo largo del proyecto, se explicarán a través de implantes realizados en unas prácticas enla empresa FANUC Robotics Italia S.r.l., que serán implementados en clientes. Se

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    8/169

    Contenido

    8

    utilizará el software RoboGuide de FANUC para el estudio detallado y preciso de losimplantes: se programa el robot como en la realidad, en todos los aspectos (se debenhasta conectar “cables”). Se simulará con una gran precisión con respecto a losresultados que se obtendrían en la realidad, en términos de tiempo ciclo y rendimiento.

    Para cada uno de los implantes, se sigue un procedimiento específico: lo primero detodo, se deberá de establecer cuál es el objetivo del implante. Normalmente, esteobjetivo viene dado en tiempo ciclo máximo a respetar. Se debe también saber quéelementos del implante son modificables y cuáles no, para saber los elementos con losque se puede jugar para optimizar el rendimiento.

    Una vez establecido el objetivo, se procederá a la elección del robot. Para ello, setendrán en cuenta tres factores: masa a mover por el robot, sumando la de la pieza y lade la pinza, rango mínimo de alcance que ha de tener el robot, e inercias que debe de

    poder mover el robot.Luego, se posicionarán los elementos móviles de la manera más adecuada. Seconfigurarán asimismo todos los elementos que actúen con el robot, por ejemplo,encóders de cintas transportadoras o cámaras. En este punto se podrá proceder con la programación del robot. Para cada implante, se mostrará detalladamente todos los pasosnecesarios para programar el robot.

    Sistemas pick and place

    Son los sistemas más complejos. Combinan dos técnicas diversas: por una parte, ladetección por visión artificial. Por otra parte, técnicas de line tracking, es decir,seguimiento de la pieza en la cinta transportadora.

    Lo primero que se deberá de configurar es el sistema de visión. La robustez en elfotografiado es fundamental para un buen funcionamiento del sistema global. Se deberáde instalar la cámara, primero, viéndose todo el ancho de la cinta y no quede ninguna pieza sin fotografiar. Segundo, debe ser resistente a agentes externos, como cambios enla iluminación ambiente. Tercero, deberá de obtener un contraste mínimo para poderdiferenciar las distintas líneas y colores que aparezcan, consiguiéndose a través de lailuminación y la correcta elección del color de la cinta. Siguiendo con este argumento,la cámara deberá tener una resolución mínima de pixel/mm, para poder detectar detallesdentro de las piezas. Finalmente, se creará el patrón de detección de las piezas encuestión. El robot comparará los objetos detectados en cada fotografía con los modelos, para poder identificarlos.

    Una vez instalada la cámara, se configurará la parte del tracking. Se utilizará un encóderacoplado al motor de la cinta transportadora para calcular la velocidad de la cinta encada momento.

    Se utilizará el asistente Workcell Setup para facilitar la programación. Éste ayuda,facilita y dinamiza la programación del robot para este tipo de aplicaciones. La gran

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    9/169

    Contenido

    9

    ventaja que ofrece es que los programas ya están previamente hechos, con los que sólohaciéndoles pequeñas modificaciones se es capaz de programar el robot. Workcell Setuptiene todos los programas contemplando todas las posibilidades (recogida o depósitodesde/a estación fija o cinta), y dentro de las cuales se elegirá al hacer la configuración.

    Luego, se deberá de describir la geometría de la celda: se le darán las posiciones de lasestaciones mediante el uso de frames (ya que los puntos de recogida y deposito serán por tanto relativos a estos sistemas de coordenadas). También se definirán las posiciones de aproximación a ambas estaciones, tiempos pinza… Procedimientos paraque los sistemas de visión y seguimiento en cinta se comuniquen entre ellos se harántambién en el Workcell Setup.

    La programación de sistemas pick and place no es nada fácil, ya que se debe degarantizar que llegue la pieza en cuestión en la posición u orientación que llegue, elrobot ha de ser capaz de cogerla. Es inadmisible en la mayoría de los casos que las piezas no sean recogidas, pues implica que sean desechadas, con el costo económicoque eso implica.

    El proceso de detección y recogida de piezas es el siguiente: la cámara sacará una foto,detectará una pieza, y enviará al robot sus coordenadas con respecto a un punto dereferencia conocido por ambos. La pieza avanza a velocidad constante encima de lacinta, con lo que una vez detectada la pieza, el sistema puede saber en todo momentosus coordenadas. Cuando la pieza entre en el rango de alcance del robot, éste irá arecogerla.

    Una vez esté ya el implante en funcionamiento, se deberán de hacer pequeños ajustesdentro del programa para optimizar el tiempo ciclo, buscando cumplir el objetivo conaún más margen.

    Paletización

    Es la aplicación más tradicional de los robots. Son normalmente la parte inicial y finalde cada sistema de producción: llegan las piezas y se cogen para meterlas en lamáquina, depaletización; o una vez las piezas estén ya acabadas, se deberán dealmacenar ordenadamente para ser enviadas al cliente final.

    Son bastante fáciles de programar. Las trayectorias del robot serán siempre idénticas,utilizándose señales digitales de intercambio con el PLC para saber cuándo se debe de ira recoger la pieza. A diferencia con el caso anterior, bastará con colocar unos puntos en programas de movimiento, con un control lógico de elección del programa demovimiento correcto.

    Después de estudiar estos dos implantes, se procederá a un estudio más general sobreaspectos que afectan a todos los robots:

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    10/169

    Contenido

    10

    Inercias

    Son un aspecto fundamental a la hora de elegir el robot. El conjunto pieza y pinza ha derespetar unos límites, fuera de los cuales el robot no podría moverse. Se ha de analizarcuidadosamente sobre todo al mover objetos grandes con pesos relativamente bajos parasus dimensiones. El ejemplo típico es un cristal.

    Análisis de la seguridad

    La seguridad es imprescindible en cualquier tipo de implante industrial. Aparte de lasleyes que exigen que las máquinas sean seguras, y las fuertes sanciones que se imponenen caso de accidente, se tiene también una obligación moral de evitar dañar a otras personas.

    Existen actualmente tres tipo de estándar de seguridad: PL (Performance Level), SIL

    (Safety Integrity Level) y las Categorías de Seguridad. Cuando se lleva a cabo unimplante, el cliente exige un determinado nivel de seguridad. Se mostrarán diferentesmedidas de seguridad para evitar accidentes indeseados: vallados con puertas dotadas dedetectores de seguridad, cortinas de luz verticales para detectar la forma de los objetosentrantes en el recinto…

    RESULTADOS

    Finalmente, se analizarán los resultados. De cada implante, se obtendrá un tiempo ciclo,que se deberá de optimizar mediante ajustes finos: pequeños cambios en la trayectoria,

    cambiar de las precisiones con las que se deben alcanzar puntos para suavizar elmovimiento… Para demostrar que el robot es capaz de llevar a cabo el objetivo, sedeberá hacer un vídeo. Otro aspecto a estudiar en todos los implantes es su durabilidad.Se deberá de estudiar el rendimiento de los motores, y las temperaturas que alcanzandurante ciclos de trabajo.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    11/169

    Abstract

    11

    AUTOMATION IN PRODUCTION SYSTEMS

    Author: Zumárraga Lizundia, Roberto

    Director: Sánchez Miralles, Álvaro

    Collaborating Entity: FANUC Robotics Italia S.r.l.

    ABSTRACT

    In 1954, George Devol and Joseph F. Engelberger founded Unimation, the firstcompany dedicated to produce industrial robots as we know them nowadays. They were built to move parts from one place to another. The next big leap made on this sector wasin the 70s, when various big Japanese groups entered the business. Since then, industrialrobotics have experimented a great evolution, and big amounts of money have been

    invested on the sector. As the sector evolved, new techniques were developed, whichlead to more evolution, doing a sort of positive feedback loop. This evolution anddevelopment lead robotics to be applicable to more sectors. At the very beginning,robotics only did palletizing works, but as time went by, welding applications weredeveloped… Long made short, nowadays 168.000 robots are sold each year, which aresold in various sectors: food, beverage, metal, welding, pharmaceutics… In otherwords, they perfectly suit in any type production line. Robotics helps achieve higherquality products, augmenting quality while reducing cycle times. It also improves thequality of the work of employees, as the most tedious, boring and time consuming

    activities are done by robots.The scope of this project is to show the various functions a robot does in an automatized production line. Two types of applications are shown: pick and place and palletizingapplications. These are the most common ones. For instance, parts are picked from a pallet and are placed in a machine (depalletizing). Once the machines have finishedworking the part, where robots might also be used to move parts from one machine toanother; finished parts go to a conveyor. A robot that picks up these parts will beneeded, sorting them depending on their size, color… Finally, another robot will takethe ordered parts and will palletize them, so they will be ready to be sent away to the

    final client.METHODOLOGY

    In the first place, pick and place systems will be treated, and then, palletizingapplications. Some other related issues will be as well discussed, as the study of inertiason the faceplate of the robot, or safety measures required a system to be safe. Technicaldetails of the robot will be given in the appendixes (hardware, outside connections ofthe controller, types of signals used in and by the robot). Details about programing andother robot related data is also explained in the appendixes.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    12/169

    Abstract

    12

    All the robotic systems shown and discussed in this paper, have been developed whilean internship stage in FANUC Robotics Italy S.r.l., and have been implemented inclients. To achieve a detailed and accurate study of the system, the software RoboGuideof FANUC is used: the robot is programmed exactly as in reality; connections must be

    made in the software just as in reality…Simulations are done with an enormous precision, and cycle time and performance of the robot are obtained.

    For each of the implemented systems, a similar procedure is followed: first, an objectivemust be established. Usually, this objective is given as a maximum cycle time. It is alsoimportant to know which elements of the layout can be modified, and which ones not, inorder to know what can be adjustable to optimize performance and minimize cycle time.

    Once the objective is clear, a robot model must be selected. The factors that play a rolein this election are: mass to be moved, counting both the end of arm tool and the part;

    minimum operation distance, in meters; and minimum inertias and moments that therobot must handle.

    Then, all movable objects of the layout must be fixed, being placed in the most adequate position, aiming to minimize cycle time. All outside elements must be configured, forexample, encoders of conveyors, cameras. From this point on, programming can bemade. For each system, all steps are conveniently explained.

    Pick and place systems

    These are the most complex ones. They combine two different techniques: artificialvision detection and line tracking.

    The setup of the vision is what must be done in the first place. The robustness of the photo making process is essential in order to achieve a good overall performance. Thecamera must be installed respecting some constraints: first, all parts must be

    photographed, so all the conveyor’s width must be in the range of the camera. Second,the process must be robust against external agents, such as illumination variations dueto weather. Third, there must be a minimum contrast between different lines and colors,achieved by properly selecting illumination and color of the background of the photo(conveyor). The camera must have a minimum pixel/mm ratio, so details in the detected part can be found when running edge detection algorithms. Finally, reference modelswill be taught to the robot. To recognize parts on the conveyor, the robot will comparethe photographed and detected objects with these models.

    Once the camera is properly installed, the line tracking will be configured. An encoderinstalled in the motor of the conveyor will be used to compute the speed of the conveyorin each moment.

    Workcell Setup will be used to ease and speed up the programing process as much as possible. The big advantage Workcell Setup offers is that programs are previouslyalready made. All types of programs are taken into account: pick or place from/to fixed

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    13/169

    Abstract

    13

    station or conveyor. From all possibilities, one must be selected. Then, cell geometrymust be given: positions of all stations must be given using frames, so pick and place

    points will be referred to them; tool closing and opening times, approach offsets…Procedures to combine actions of vision and tracking are also done with this Workcell

    Setup.The programming of a pick and place application is not easy at all, as pick up of all parts has to be guaranteed, no matter their position or orientation, as in most of the casesit is inadmissible parts to be discarded. The process of detection and picking up of the piece works this way: the camera makes a picture, it detects the part, and coordinatesare sent to the robot with reference to a position known by both of them. The partmoves with constant speed in the conveyor, so once the part is detected by the vision process, the position of the part can always be computed by reading the encoder’s pulses. When the part enters the range of the robot, the part will be picked up.

    Once the cell is working, some fine adjustments must be made in the programs tominimize cycle time.

    Palletizing systems

    It is the most traditional use for robots. They are usually the first and last cells of a production line: raw material arrives and must be placed in the machines (depalletized);or once a part is finished, it must be stored in a compact and ordered manner so it can besent away to the final costumer.

    Palletizing systems are quite easy to program. The robot’s trajectories will always bethe same, and control signals given by the PLC are used to give the robot permission toaccess pick and place spaces. It will be sufficient to do two kinds of programs:movement programs to pick up and place parts, and a logic control to choose the propermovement program at each time.

    Once the study of these two systems is finished, some other aspects affecting all robots,no matter the application, are discussed.

    Inertias

    They play an important role when choosing the robot. The set made by part and end ofarm tool must respect some limits, so that the robot will be able to move comfortably.The study of inertias is crucial when analyzing large size objects having small masscompared to their area. The typical example made to prove this point is a big glass.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    14/169

    Abstract

    14

    Security

    Security is essential in any industrial system. Not only do laws require machines to besafe, but also very strong economic sanctions are imposed in case of accident. Inaddition, there is a moral obligation not to harm any human being.

    Nowadays there are three security standards that are applied: PL(Performance Level),SIL(Safety Integrity Level) and Security Categories. When projecting a new implant,client imposes minimum level of security to be respected. Different ways of securitymeasures are highlighted in this paper to avoid all types of unwanted accidents: securitydetectors, laser lights (either horizontally or vertically)…

    RESULTS

    Finally, results will be examined. From each system, a cycle time will be obtained,which will be optimized by making some little adjustments: changes in trajectories,changing precision of point to smoothen movement… To prove that the objec tive isfulfilled, a video of the cycle will be made. Another important aspect to study is thedurability of the system, i.e., probability of failure along time. Therefore, both thetemperature and performance of each motor is studied.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    15/169

    Contenido proyecto

    15

    ESTE PROYECTO CONTIENE LOS SIGUIENES DOCUMENTOS

    DOCUMENTO Nº1, MEMORIA1.1 Memoria pág. 15 a 94 80 páginas

    1.2 Estudio Económico pág. 95 a 102 8 páginas

    1.3 Anejos pág. 103 a 138 36 páginas

    DOCUMENTO Nº2, PLANOS2.1 Planos pág. 141 a 146 6 páginas

    DOCUMENTO Nº3, PRESUPUESTO3.1 Pick and Place pág. 151 a 154 4 páginas

    3.2 Paletización pág.155 a 156 2 páginas

    3.3 Inercias pág. 157 a 158 2 páginas

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    16/169

    16

    Para la versión PDF, se podrá acceder al material adjunto en el CD en el siguiente enlace deDropBox.

    https://www.dropbox.com/l/GbLMUxmWCK6drRSnJ0YgGr?

    https://www.dropbox.com/l/GbLMUxmWCK6drRSnJ0YgGr?https://www.dropbox.com/l/GbLMUxmWCK6drRSnJ0YgGr?https://www.dropbox.com/l/GbLMUxmWCK6drRSnJ0YgGr?

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    17/169

    17

    DOCUMENTO 1

    MEMORIA

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    18/169

    18

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    19/169

    Índice documento nº1

    19

    DOCUMENTO Nº11.1 MEMORIA DESCRIPTIVAINDICE GENERAL

    1.1.1 Introducción……………………………………………………………………………………………….………..19

    1.1.1.1 Descripción del proyecto en general ………………………………………………………………. 191.1.1.2 Perspectiva histórica…………………………………………………………………………………… .…201.1.1.3 Motivaciones……………………………………………………………………………………………… ..…21 1.1.1.4 Agradecimientos……………………………………………………………………………………… ..…..22

    1.1.2 Visión Artificial……………………………………………………………………………………………………..23

    1.1.2.1 Descripción general ……………………………………………………………………………………… ..231.1.2.2 Planteamiento ……………………………………………………………………………………………….. 241.1.2.3 Procedimiento……………………………………………………………………………………………… ..251.1.2.4 Resultados……………………………………………………………………………………………………… 291.1.2.5 Conclusiones………………………………………………………………………………………………… ..31

    1.1.3 Sistemas de Pick and Place……………………………………………………………………………………33

    1.1.3.1 Descripción general ……………………………………………………………………………………….33 1.1.3.2 Elección del robot …………………………………………………………………………………………..34 1.1.3.3 Posicionamiento de los elementos………………………………………………………………….35 1.1.3.4 Programación…………………………………………………………………………………………………36

    1.1.3.4.1 Planteamiento ……………………………………………………………………………… ..361.1.3.4.2 Procedimiento………………………………………………………………………………..36 1.1.3.4.3 Configuración de la visión………………………………………………………………40 1.1.3.4.4 Programas TP…………………………………………………………………………………43

    1.1.3.5 Resultados………………………………………………………………………………………………………48 1.1.3.6 Conclusiones…………………………………………………………………………………………………..57

    1.1.4 Paletización…………………………………………………………………………………………………………..59

    1.1.4.1 Descripción general ………………………………………………………………………………………..59 1.1.4.2 Elección del robot …………………………………………………………………………………………. ..621.1.4.3 Programación…………………………………………………………………………………………………64 1.1.4.4 Resultados………………………………………………………………………………………………………66 1.1.4.5 Conclusiones…………………………………………………………………………………………………..69

    1.1.5 Inercia de la Pinza………………………………………………………………………………………………….71

    1.1.5.1 Descripción general ………………………………………………………………………………………..71 1.1.5.2 Elección del robot ……………………………………………………………………………………………73 1.1.5.3 Resultados………………………………………………………………………………………………………82 1.1.5.4 Conclusiones……………………………………………………………………………………………………84

    1.1.6 Seguridad………………………………………………………………………………………………………………85

    1.1.6.1 Descripción general ……………………………………………………………………………………..85 1.1.6.2 Normas de seguridad ……………………………………………………………………………………85

    1.1.6.3 Índices de medición de riesgo………………………………………………………………………86 1.1.6.4 Precauciones de seguridad ……………………………………………………………………………89 1.1.6.5 Protecciones…………………………………………………………………………………………………91

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    20/169

    20

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    21/169

    MEMORIAIntroducción

    21

    1.1.1 INTRODUCCIÓN

    1.1.1.1 DESCRIPCIÓN GENERAL DEL PROYECTOLa idea del proyecto es presentar los tipos más comunes de implantes robotizados, y explicarel procedimiento desde cero, partiendo de una necesidad, pasando por la elección del robot yel posicionamiento de los elementos del implante, hasta llegar a un implante programado ycon garantías de funcionamiento.

    Todos los implantes que se presentan en esta memoria han sido llevados a cabo durante una

    estancia en prácticas en FANUC Robotics Italia S.r.l. .Se presentarán a lo largo del proyecto dostipos de implante robotizado: por una parte, implantes de tipo pick and place. Es decir, sonimplantes en los que las piezas (ya sean comida, botellas…) llegan de manera desordenada enuna cinta transportadora. Llegan con una media al minuto, y una cierta varianza. Cada piezatiene una orientación y posición dentro de la cinta distinta a todo el resto. El robot cogerátodas estas piezas desordenadas y las depositará, ya sea en otra cinta o en una estación fija, demanera ordenada.

    Este es un tipo de aplicación bastante avanzado dentro del campo de la robótica, que hastahace pocos años no era posible hacerlo. Debido a su complejidad, se explicará antes la visiónartificial aplicada a los robots. Se coloca una cámara encima de las piezas a detectar, y llevandoa cabo unos algoritmos, se detectará su posición y orientación. Se debe estudiar la viabilidadde la detección de la cámara, pues a veces ésta no es capaz de detectar lo que se necesita.

    Una vez explicada la visión, se explicará el proceso a seguir para la programación del sistemaspick and place. Son sistemas muy complicados, pues juntan el seguimiento de cintastransportadoras con la visión artificial. Se explicarán todos los elementos que forman parte delsistema, y finalmente se programará el robot.

    A continuación, se presentará una de las aplicaciones más típicas de un robot: la paletización.

    Si bien se han hecho varios proyectos de este estilo, se presenta en esta memoria sólo el másinteresante de todos: las piezas a paletizar aparecen en dos puntos distintos, con tiempos dereaparición diferentes. Se verá cómo afrontar estas situaciones y qué procedimiento se deberáde seguir para programar el robot.

    Si bien el peso que el robot puede mover en la muñeca es una limitación obvia que a nadie sele escapa, los momentos que la pinza y la pieza generan sobre la muñeca son igualmenteimportantes. Los robots tienen una limitación de inercia en su muñeca que se debe derespetar. Se mostrará un caso en los que el estudio de la inercia de la pinza es especialmenteinteresante, explicando el proceso a seguir y guías de actuación.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    22/169

    MEMORIAIntroducción

    22

    Como todas las máquinas, los robots han de funcionar con ciertos niveles de seguridad. Semostrarán los niveles de seguridad utilizados en el ámbito industrial, y se mostrarán lasmedidas de seguridad más comunes usadas.

    Se vuelve a repetir que, en todos los puntos anteriores, los implantes son reales, han sido oserán llevados a cabo en la realidad. En cada uno de los implantes, habrá un apartado dondese justifique la elección de ese modelo en concreto de robot contra otros modelos, mostrandolas ventajas que aporta respecto a los demás.

    1.1.1.2 PERSPECTIVA HISTÓRICAEl primer implante industrial con robots industriales, tal y como se conocen hoy en día, se le

    atribuye a Bill Griffith P.Taylor, en 1937. El robot fue construido casi en su totalidad por piezasMeccano, y accionado con un único motor eléctrico.

    Más adelante, en 1954, George Devol quería producir una máquina de fácil manejo, quepudiera mover objetos de un punto a otro. Fundó junto con Joseph F. Engelberger la compañíaUnimation, que fue la primera compañía en producir un robot. Se llamaron originalmentemáquinas de transferencia programables, pues su principal uso era mover objetos de un puntoa otro, dentro de una distancia de menos de tres metros.

    En la década de los 70, varios conglomerados japoneses comenzaron a producir robots

    industriales similares. KUKA construyó el primer robot de 6 ejes impulsadoelectromecánicamente en 1973. Fue a partir de este momento cuando la industria empezó acrecer de manera contundente y rápida. Se extendieron por los sectores de la pintura y lasoldadura, responsables de gran parte de su crecimiento.

    Hoy en día, las principales compañías en el mundo de la robótica son ABB, KUKA Y FANUCRobotics. En el año 2013, se vendieron 168.000 robots mundialmente. Es una industria enpleno crecimiento, como se puede ver en el gráfico siguiente [Web1].

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    23/169

    MEMORIAIntroducción

    23

    Figura 1: Ventas de robots anuales en el mundo

    China se convirtió en 2012 en el principal mercado para robots, con 23.000 robots vendidos. ElIFR (International Federation of Robots) prevé un crecimiento de un 6% al año en robotsinstalados para los años 2014 a 2016. El gobierno japonés estima que la industria podría crecerhasta los 70 billones de dólares al año, para 2026, impulsado principalmente por los mercados

    emergentes y China.

    1.1.1.3 MOTIVACIONESLa robótica industrial es un sector en pleno crecimiento. Cada vez se llevan a cabo plantasindustriales de mayor tamaño dedicadas a la fabricación en serie, donde el conceptotradicional de trabajador se ha quedado obsoleto. Se ha pasado a tener grandes cantidades derobots que trabajan en grupo, cada uno llevando a cabo una función específica. Los robots son

    capaces de conseguir unos niveles de productividad y precisión que los humanos no puedenalcanzar, siendo estos motivos los principales causantes de la paulatina desaparición deltrabajador tradicional dentro de las plantas automatizadas de montaje. Es obvio que el robotnecesita del ser humano para trabajar, pues que todos los robots trabajen sin tener nuncaningún fallo es totalmente utópico.

    No obstante, este no es un cambio a mal, sino todo lo contrario. La robótica mejora la calidaddel trabajo de mucha gente, al poder hacer las tareas más peligrosos, non-gratos y pesantes.

    El uso de los robots en cadenas de producción aumenta la producción al mismo tiempo quesube la calidad del producto. Para el consumidor, esto se resume en poder adquirir productosa menor precio, subiendo la calidad media de los mismos.

    0

    20000

    40000

    60000

    80000

    100000

    120000

    140000

    160000

    180000

    200000

    98 99 00 01 02 03 04 05 06 07 08 09 10 11 13 14 15

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    24/169

    MEMORIAIntroducción

    24

    Es fascinante a su vez la cantidad de sectores a la que es aplicable la robótica: alimentación,bebidas, farmacéutico, soldadura, metal…

    Es un mundo lleno de desafíos y oportunidades. Es una industria donde la inversión es grande,y por ello, la innovación. Se deben hacer robots que sean aún más rápidos y más fiables,aumentar el rango de robots disponibles, haciendo posible su aplicación en todavía mássectores; facilitar el uso y programación de los robots…

    Resumiendo, los robots son el futuro de la producción. Son rápidos, precisos y fiables, ypermiten producir a un costo bajo, factores clave sobre todo hoy en día, debido a la grandemanda existente en un mundo cada vez más globalizado.

    1.1.1.4 AGRADECIMIENTOSPrimero y sobre todo, debo agradecer todo el apoyo y dedicación que FANUC Robotics ItaliaS.r.l. me ha ofrecido. A lo largo de mi estancia de 3 meses en prácticas en la empresa, hansabido enseñarme una gran cantidad de cosas sobre la robótica: desde añadir puntos condistintos CNT para controlar las trayectorias de los primeros días, pasando por programas depaletización que se complicaban a lo largo del tiempo, hasta ser capaz de programar robotsutilizando cintas transportadoras y visión artificial al final. Aprovecho esta oportunidad paraagradecerles toda la paciencia que han tenido conmigo. Incluso he tenido la ocasión de salir deexcursión, y poder visitar algunos implantes robóticos espectaculares. Ha sido un placertrabajar junto con gente tan competente de una empresa primera espada como es FANUC.

    En especial, me gustaría agradecer a Duilio Tissino por ser el verdadero responsable de poderhaber hecho estas prácticas. Siempre te preocupaste en que todo me fuera bien. Agradezcotambién a mi tutor dentro de la empresa, Giacomo Barbieri, por todos los consejos, dedicacióny tiempo prestado. Seguramente en un futuro nos volvamos a ver a través de CMZ Italia. Perosobre todo los que me han sufrido han sido Marcelo Madella y Alberto Piccinini. No habríaaprendido ni la mitad si no fuera por todo el tiempo que me han dedicado, y por la confianzaque han depositado en mí a la hora de hacer tantos proyectos.

    No puedo olvidar tampoco a mis compañeros del Martinitt, que siempre me han apoyado encualquier problema que tuviera. Se agradecen vuestras recomendaciones y sugerencias.También a todos aquellos que me hayan venido a visitar en mi estancia en Milán, y todosaquellos que me han tenido que sufrir desde Madrid preguntándoles fechas y aspectos sobreorganización y presentación del proyecto.

    Finalmente, a mis abuelos, a mis padres y a mi hermana.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    25/169

    MEMORIAVisión artificial

    25

    1.1.2 VISIÓN ARTIFICIALLo primero que se hace en cualquier implante es instalar correctamente todos los elementos.Para la mayoría de ellos, la instalación es banal: basta con conectar un cable con el controladordel robot (se muestra en el anejo 1.3.3 la interconexión de los encóder y cámara. con elrobot). No obstante, la instalación de la cámara no es tan trivial. Se deberá conectar medianteun cable a su respectiva entrada en el controlador del robot, pero como cualquier sistemaóptico, tendrá muchas más opciones que configurar, como por ejemplo, la lente a usar, gradode iluminación óptima…

    Con el objetivo puesto en el diseño e implementación de un sistema pick and place, lo primeroque se hace es explicar cómo instalar el sistema de visión artificial. Para una correcta detecciónde los objetos, se debe primero instalar correctamente la cámara. Las condiciones deiluminación han de ser las óptimas, la imagen no debe estar borrosa … Aparte, la detección hade ser robusta ante agentes externos, como cambios de luminosidad en el ambiente, posiblesluces que estén apagadas o encendidas… Una vez acabada la configuración física de la cámara ,se deberán de configurar los ajustes software. Se mostrarán las diferentes posibilidades queofrece la visión artificial.

    1.1.2.1 DESCRIPCIÓN GENERALPara ilustrar lo dicho, se utilizará el siguiente trabajo como ejemplo. Desde una máquina salen

    ya finalizadas bases de sartenes. Éstas saldrán a una cinta transportadora, y luego, un robotdeberá de colocarles el mango. Sin embargo, cada base de sartén saldrá de manera aleatoria ala cinta, es decir, podrá tener cualquier orientación y posición en la cinta transportadora. Porello, se necesitará un sistema que dote de coordenadas y orientación a cada sartén para que elrobot pueda ir a recogerlas. Este sistema de dotación de coordenadas se llevará a cabomediante la visión artificial.

    OBJETIVO

    En este apartado se estudiará la viabilidad del uso de la visión artificial para este proceso.

    Se desea conocer la posición y ángulo de giro de una sartén, que se necesita para luego poderenganchar el mango. Debido a que la base de la sartén es circular, se podrá detectarfácilmente su posición utilizando el contorno de la sartén, pero será imposible determinar suorientación. Por ello, se deberán de utilizar las inscripciones que aparecen en el centro de labase de la sartén. Esto implica una mayor dificultad a la hora de reconocerla, pues al ser lasuperficie metálica, se tendrán muchos problemas para reconocer los bordes correctamente.Aparte, al ser letras, se deberá de tener una cámara de mayor precisión que la que se utilizaríapara detectar solamente el borde

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    26/169

    MEMORIAVisión artificial Planteamiento

    26

    1.1.2.2 PLANTEAMIENTOPara detectar cada sartén, una cámara sacará una foto cada tanta distancia avanzada por la

    cinta transportadora, asegurándose de que la distancia sea tal que no quede ninguna sarténsin ser fotografiada (fotografiar dos veces una sartén no es un problema, pues el propiosoftware la detectará como copia y la elimina). Se utilizarán algoritmos de Edge Detection paraobtener los bordes de la imagen. A continuación, se comparará la imagen con el filtro EdgeDetection con una muestra almacenada anteriormente en la memoria; calculándose de estamanera tanto la posición (X e Y) como la rotación entorno al eje Z. así, se tendráperfectamente posicionada en el espacio la sartén, y se podrá montar el mango de la sarténcon precisión. Para calcular con mayor precisión la rotación, una vez detectada la sartén, sehará zoom en las letras que tiene inscritas, para compararlas con el patrón previamentealmacenado en la memoria.

    Se muestra a continuación una foto de la sartén a detectar.

    Figura 2: foto de la sartén a detectar

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    27/169

    MEMORIAVisión artificial Procedimiento

    27

    1.1.2.3 PROCEDIMIENTO FASE 1: SELECCIÓN DE LA TELECÁMARA

    Se tienen a disposición dos cámaras totalmente compatibles con el controlador FANUC. Poruna parte, se tiene la cámara Sony XC-56, una cámara de 8 bits, con lo que sacará fotos aescala de gris, de resolución 640 x 480 píxels. Por otra parte, la cámara KOWA sacará fotos acolor, pues funciona a 24 bits, con una mayor resolución, 1024 x 760 píxels.

    Aquí, se utilizará una cámara SONY XC-56. El principal motivo para su elección es económico.La cámara cuesta mucho menos, no se necesitan tarjetas de procesamiento intermedias, ydebería de poder cumplir perfectamente con la tarea a hacer. Esta cámara es ideal para líneasde montaje. La ventaja de utilizar el sistema de visión de FANUC con respecto a otros es queestá totalmente integrado en el sistema, con lo que es capaz de detectar los objetos muchomás rápido.

    FASE 2: COLOCACIÓN

    La colocación de la cámara con respecto a la cinta transportadora es crucial para una correctay precisa detección de la pieza. Para empezar, se colocará la cámara centrada con respecto a lacinta.

    Además, se colocará la cámara de tal manera que los 640 píxeles estén alineados con ladirección del movimiento de la línea. Esto tiene sus pros y sus contras: al aumentar el campo

    encuadrado, baja la carga computacional total, pero se disminuye la precisión de la detección.Es decir, al hacer una foto se cubre más espacio longitudinal, con lo que se necesitarán menosfotos para detectar las sartenes, lo que repercute directamente en una menor cargacomputacional. No obstante, la detección es de menor precisión, pues para abarcar el anchode la cinta con 480 pixeles en vez de con 640, tendremos que colocar la cámara a mayor altura,lo cual hace que el ratio pixeles/mm baje (al fin y al cabo, la precisión de las medidas es elproducto mm/pixel*elasticidad 4). Por ello, la altura de la cámara será aquella más alta posibleque permita encontrar bien los objetos.

    En este caso, se colocará la cámara a una distancia de 700mm con respecto a la cinta. Por ello,

    se obtendrá un campo encuadrado de 160 x 150 mm; lo que equivale a una resolución de0.3mm/pixel ó 3.2 pixel/mm.

    FASE 3: ILUMINACIÓN y CONTRASTE

    El contraste de color entre la cinta transportadora y el objeto a identificar es vital, debido alfuncionamiento del algoritmo Edge Detection: hace la derivada de los pixeles en direcciónhorizontal y vertical. Es decir, si el pixel i tiene un valor de 55 (8 bits, 256 colores diferentes, de0, blanco, a 255, negro) y el pixel i+1 tiene un valor de 205, la derivada vale 150; con lo que el

    4

    La elasticidad es el margen que se le da al algoritmo de detección de objetos para encontrar un pixel.Por ejemplo, con una elasticidad de 3 píxels, el pixel de la línea 5 y columna 12 se podrá encontrar entrelas líneas 2 y 8, y entre las columnas 9 y 15.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    28/169

    MEMORIAVisión artificial Procedimiento

    28

    valor del pixel en ese punto pasa a valer 150. De esta manera, se colorearan de oscuro lospíxels de los bordes o zonas donde los colores sean suficientemente diferentes, mientras queel resto serán claros(o viceversa, en realidad no importa).

    La sartén (boca abajo, tal y como llega en la cinta), es de color metálico. Por ello, la cintatransportadora deberá de ser de color negro para optimizar el reconocimiento de los bordesde la sartén.

    En cuanto a la iluminación, se presentan una serie de problemas a los que se debe darsolución: para empezar, la iluminación a lo largo del día varía; y no sólo eso, sino que laintensidad de la iluminación también varía de día en día. Aparte, se ha de tener en cuenta queal ser la superficie a fotografiar metálica, refleja los rayos del sol, con lo que puede que si el solincide directamente en la sartén y los refleja, no se reconozcan bien más las letras de la sartén(que se utilizan para obtener la rotación de la sartén), o se reconozcan líneas inexistentes.

    Para resolver todos estos problemas, lo más fácil es aislar la zona en la que se fotografía lasartén del exterior mediante una caja. Dentro de la caja, se colocarán luces, pero que iluminena la sartén de forma indirecta, para evitar que la cámara capture algún reflejo no deseado delas luces. Es decir, las luces apuntarán hacia las paredes de la caja, de manera que sea el reflejode la iluminación de las paredes de la caja lo que ilumine la sartén.

    Se podrían utilizar otras herramientas añadidas, como utilizar filtros infrarrojos, juntoiluminación infrarroja. No obstante, se obtiene un resultado satisfactorio sin ellas; y lo únicoque harían es encarecer la instalación.

    FASE 4: ADQUISICIÓN DE LA IMAGEN Y PROCESADO DIGITAL

    Para una correcta adquisición de la imagen, se deben de diferenciar dos tipos de ajustes:ajustes ópticos (lente utilizada, filtros… y apertura del obturador) y ajustes de software(elasticidad, contraste, tiempo de adquisición…).

    Lente y Obturador

    El obturador y el tiempo de adquisición trabajan de la mano: para obtener una mismailuminación, si se cierra el obturador se debe de aumentar el tiempo de exposición, y

    viceversa. Normalmente, el obturador se deja totalmente abierto, para que entre la máximaluz posible; para minimizar así el tiempo de exposición, que con ello, se disminuirá el tiempototal de detección de la pieza.

    Para ajustar la lente, el proceso se vuelve más inductivo. Se tendrá que obtener el punto demejor enfoque probando. Si no se encuentra ese punto, se deberá cambiar la lente a una conmayor o menor aumento. Para esta aplicación, se utilizara una lente de 16mm (distanciainterfocal).

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    29/169

    MEMORIAVisión artificial Procedimiento

    29

    Ajustes Software

    Con cada fotograma capturado, el software elaborará siempre el algoritmo de Edge Detection.Hay una serie de márgenes que se deberán impostar para que el algoritmo decida si lodetectado se puede considerar como correcto o no:

    Tiempo de exposición: se ajusta junto con la apertura del obturador. Cuanto másabierto esté el obturador, más luz entrará y un menor tiempo de exposición seránecesario. Se ajusta probando, hasta que la zona a detectar tiene una iluminaciónhomogénea.

    Elasticidad: el pixel“x” tiene el margen de estar en un cuadrado de centro en el pixel“x” y de lado la elasticidad.

    Contraste: es el gradiente (se da en porcentaje) para que un borde sea detectadocomo tal. Al 100%, sólo los bordes más evidentes aparecerán; mientras que al 1%,aparecerán más bordes, zonas de cambio de color…

    Score: al detectar una imagen y compararla con el patrón utilizando la elasticidad y elcontraste dados, se le asignará un score, en porcentaje, de la semejanza del objetodetectado con el patrón. Si el score es menor que el valor impostado, no detectará elobjeto fotografiado.

    Existe una función de gran utilidad para esta aplicación: de entre todos los bordes de la sartén,“se esconderán” todos aquellos que no sirvan. Hacer esto no sólo reducirá carga

    computacional, sino que hará que el proceso sea más rápido.

    En la foto mostrada a continuación, se ve un ejemplo de lo dicho.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    30/169

    MEMORIAVisión artificial Procedimiento

    30

    Figura 3: izquierda, foto tomada por el sistema de visión de la base de la sartén. Derecha,bordes detectados por el algoritmo de Edge Detection

    Es de gran importancia recalcar que, si sólo se detectará el contorno de la sartén, no se podríadetectar la orientación de la misma, ya que se detectaría una circunferencia. Es por ello que sedebe hacer el zoom y gastar carga computacional en detectar las letras, pues es lo único quepuede revelar la orientación.

    Gran contraste, sin problemas para encontrar bordes exteriores de la sartén

    Detección de bordes inexistentes debido a reflejo de la luz

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    31/169

    MEMORIAVisión artificial Resultados

    31

    1.1.2.4 RESULTADOS Se muestra a continuación tres detecciones, con una orientación de 0,90 y 180 grados,

    respectivamente.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    32/169

    MEMORIAVisión artificial Resultados

    32

    Figura 4: Resultados obtenidos después de la detección para tres orientaciones diferentes

    Tal y como se puede ver, se puede detectar perfectamente la marca de la sartén, así como surotación. Se obtienen scores muy altos, entorno al 99%. El contraste no es inmejorable, peroes suficiente. La detección es estable, pues se probó en distintos momentos del día;obteniendo siempre resultados satisfactorios.

    Se debe hacer especial hincapié en la dificultad de detectar las letras de la sarténcorrectamente. Al hacer las pruebas, se pudo apreciar que si se colocaba la cámara muy alta,no se detectaba bien y de manera estable la marca de la sartén. Esto se debe a que elalgoritmo Edge Detection necesita un número mínimo de píxels para detectar diferencias, puesen realidad, calcula la derivada en una zona de la foto, no entre dos pixeles, con intención deeliminar el efecto del ruido (de adquisición de la foto, cuantización espacial (píxels),cuantización del color (tenemos a disposición rangos)…).

    La conclusión es que la altura de la cámara es fundamental en el proceso de reconocimiento:debe de estar lo más alta posible, como mínimo para detectar la sartén entera, pero no se

    puede colocar demasiado alta, pues si no existen un número mínimo de pixeles que formanparte de las letras, no se es capaz de detectar ninguna de ellas de manera estable.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    33/169

    MEMORIAVisión artificial Conclusiones

    33

    1.1.2.5 CONCLUSIONES Los resultados obtenidos del estudio son satisfactorios, utilizando los siguientes ajustes. Se

    muestra continuación una lista resumida de todos los ajustes elegidos.

    Tipo de Cámara: SONY XC-56 (640 x 480 píxels)

    Se utilizará esta cámara en detrimento de la KOWA debido a su menor coste, pudiendo las dosllevar a cabo la aplicación objetivo.

    Óptica: 16mmAltura relativa de la cámara : 700mmCampo encuadrado : 160 x 150 mmResolución mínima para detección : 0.3mm/pixel – 3.2 pixel/mm

    La resolución mínima para la detección es de 0.3mm/pixel. Por tanto, se podrá cambiar laaltura y la óptica, pero se ha de respetar esa condición. Los experimentos se han llevado acabo con esos ajusten, por lo tanto, se garantiza el funcionamiento del proceso de visiónutilizándolos.

    Fondo: oscuro, a poder ser negroTipo de iluminación: Se aislará la zona de detección del exterior mediante una caja, paragarantizar la estabilidad del proceso. Se utilizará luz difusa, homogénea, no directa.

    Para poder reconocer bien las sartenes, la iluminación es vital. Se deberán de seguirdetalladamente las indicaciones. Con los ajustes dados, se garantiza robustez a agentesexternos y correcta detección.

    Estabilidad: OK. El proceso es estable y los resultados son satisfactorios.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    34/169

    34

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    35/169

    MEMORIAPick and Place

    35

    1.1.3 SISTEMAS DE PICK AND PLACEA continuación, se mostrará un trabajo de tipo pick and place. Se debe de decir que encualquier implante donde se use la visión, el procedimiento descrito en el apartado de visiónartificial es imprescindible. Por ello, en primer lugar, se debe comprobar siempre la viabilidaddel sistema de visión, eligiendo la cámara adecuada para cada proceso. Sin embargo, no semostrará aquí el proceso, pues será idéntico al seguido anteriormente.

    Para cada trabajo desarrollado, se lleva a cabo un procedimiento estándar: para empezar, seanalizan los datos iniciales mandados por el cliente para intentar entender la geometría de lacelda, así como el proceso y el tiempo máximo para llevarlo a cabo.

    A continuación, se lleva a cabo el estudio. Utilizando RoboGuide, un software de FANUC, se

    recrea virtualmente el proceso, utilizando las mismas medidas que en la realidad. Se estudia lafactibilidad del proceso, y se hace una lista de las posibles mejoras en el rendimiento globalhaciendo pequeños cambio, como cambios de posición, altura o elección de robot distinta.

    1.1.3.1 DESCRIPCIÓN GENERALLas aplicaciones de tipo pick and place son cada vez son más usadas, debido a la crecienteautomatización que están sufriendo los sectores alimentario, ref rescos… Permiten ordenar unaserie de productos que llegan desde una cinta transportadora en posición aleatoria, pudiendoclasificarlos ya sea por color, por tamaño…

    En esta sección, se mostrará un implante hecho para un fabricante de botellas de vidrio. Setiene una cinta transportadora que transporta 60 botellas de vidrio vacías al minuto. Estasbotellas se deben de recoger y otra cinta transportadora, que avanza de forma escalonadacada segundo. Para los fines de la programación, se puede considerar esa cinta como unaestación fija, pues siempre se depositará la botella vacía sobre el mismo punto.

    El objetivo del proyecto es llevar a cabo dicha aplicación, garantizando que la recogida de lasbotellas sea robusta a pequeños cambios de cadencia, pues siempre existirá una pequeñavarianza debido a la aleatoriedad de la llegada de las botellas. Se debe garantizar de la misma

    manera que las botellas no se rompan ni al ser cogidas ni al ser depositadas. Para ello, seutilizará una pinza con ventosas y se evitarán de cualquier manera colisiones con el suelo yasea al recoger que al depositar la botella.

    DATOS INICIALES

    Se dispone de una cinta transportadora por la que entran las botellas, de una anchura de 400mm y a una altura de 800mm. Habrá una estación de depósito de altura 800 mm, que se debede colocar dejando 50mm de hueco a uno de los lados de la cinta. Su posición longitudinal, lacoordenada paralela al avance de la cinta, es libre, y se elegirá posteriormente para optimizar

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    36/169

    MEMORIAPick and Place Elección del robot

    36

    el tiempo ciclo del proceso. Habrá una estructura tipo puente que pasará por encima de lacinta, y sobre la cual se colocará el robot.

    1.1.3.2 ELECCIÓN DEL ROBOTANÁLISIS DE LA PINZA

    La pinza pesa 1 kg. No se da ninguna indicación sobre su geometría, con lo cual se supondráque no se tendrá ningún tipo de problema de inercias ni de momentos.

    PAYLOAD

    El peso del producto es de 100g. Por ello, se tendrán dos payloads, el de pinza vacía (1 kg) y elde pinza + botella (1.1 kg).

    RANGO

    Cualquier robot con más de 700mm de rango es apropiado para esta aplicación, para quecubra tanto la zona de recogida como la de depósito con margen.

    Hay dos robots apropiados para esta aplicación:

    LR Mate 200iD/7Ho Robot antropomórficoo 5 ejes, de alta velocidad (hasta 4.000mm/sec)o Payload máximo de 7kg M2-iAo Delta roboto 4 ejes, muy alta velocidad (hasta 10.000mm/sec)o Payload máximo de 6kg.

    Para esta aplicación en concreto se elegirá el LR Mate 200iD/7H, pues es un robot, en primerlugar, que cuesta menos. Se debe de pensar también en el coste de instalación que tendránambos robots, pues se tendrán que incluir en el coste total. El LR Mate un robot más ligero queel M2 (24 kg contra los casi 120 kg del M2), con lo que la estructura deberá ser mucho más

    robusta, con claras implicaciones en coste. Mientras que el LR Mate se montará a caballo de lacinta transportadora, el M2 se deberá de colocar en el techo. Esto implica que la estructuraque soporte al M2 deberá de tener una altura de unos 3 metros, mientras que la que soportaal LR Mate tendrá un metro, aproximadamente. Se concluye que no sólo el LR Mate es másbarato, sino que su coste de instalación es mucho menor.

    En segundo lugar, el M2 es un robot especializado en tareas de pick and place, mientras que elLR Mate es un robot antropomórfico, “más general”, con lo que una vez acabado el ciclo detrabajo de esta aplicación, será más fácil encontrarle otro uso.

    Se detallan en la sección 1.2.1 las razones económicas de la elección del robot másdetalladamente.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    37/169

    MEMORIAPick and Place Posicionamiento

    37

    1.1.3.3 POSICIONAMIENTO DE LOS ELEMENTOSEl único elemento cuya posición es modificable es la de la estación de depósito. Se deberá de

    posicionar en la zona que menos le cueste al robot alcanzarla. En este caso, se deberá decolocar lo más cerca posible a la zona de recogida. Por ello, se colocará en el medio entre lasupstream y downstream boundaries. No obstante, puede que se su posición varíe, debido queuna vez hecho el implante, se encuentre una zona cercana a la descrita que mejoreligeramente el rendimiento global.

    Se muestra a continuación una imagen con el posicionamiento final de la celda.

    Figura 5: posicionamiento de los elementos del implante pick and place

    Zona de depósito

    Zona de recogida

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    38/169

    MEMORIAPick and Place Programación

    38

    1.1.3.4 PROGRAMACIÓN

    1.1.3.4.1 PLANTEAMIENTO GENERAL

    Se muestra a continuación de forma resumida la lista de las configuraciones que sonnecesarias:

    1. Localización de elementos en el implante: se hará el Tracking Frame y se fijará un UserFrame a la estación fija del depósito de las botellas.

    2. Detección por visión: se activará y configurará el sistema de visión para la detección delos objetos que llegan desde la cinta.

    3. Interactuación robot con elementos de la celda: s e configurará la celda en “WorkcellSetup”, impostando todos los tiempos de espera, distancias de acercamiento,posiciones de espera, tipo de pick y dr op (simple, doble…), offsets del tool

    4. Programación: se harán las pequeñas variaciones necesarias en los programas FANUCque ya vienen hechos de serie mediante el wizard Workcell Setup.

    5. Una vez puesto en marcha el programa, se harán pequeñas modificación detrayectorias y posiciones para optimizar el tiempo ciclo.

    Para que el implante pueda funcionar, se deberán de calcular las siguientes cosas a lo largode la programación.

    Ratio pixel/mm de la cámara. Se hará durante la calibración. Posición relativa robot cámara. Se hará también durante la calibración. Ratio counts encoder/mm avanzado por la cinta, durante la configuración del Workcell

    Setup o en la configuración de un Tracking Schedule. Posiciones de estaciones fijas: mediante el uso de frames.

    1.1.3.4.2 PROCEDIMIENTO

    El robot sacará una foto, donde detectará una pieza. A esta se le asignarán unas coordenadasde referencia respecto a una posición fija, calculada en el proceso de configuración (estaposición será la SET REFerence POSition, como se verá más adelante, y al hacer la configuración,todas los puntos irán referidos a esta posición, así como las coordenadas de las piezasdetectadas por visión). A continuación, una vez conocida la posición de la pieza en la cinta,utilizando el ratio mm avanzados/count del encoder, se podrá calcular la posición de la piezaen todo momento mientras avanza por la cinta. Para impostar la zona del robot en la cinta enla cual podrá ir a coger la pieza, se impostarán las boundaries: upstream boundary, zona aguasarriba más alta y downstream boundary (zona aguas abajo). Una vez cogida la pieza, el robotdepositará la pieza en la zona de depósito fija. Luego, haciendo un ciclo, volverá a la deteccióny recogida utilizando la visión.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    39/169

    MEMORIAPick and Place Programación

    39

    Figura 6: funcionamiento en ciclo de sistemas pick and place

    Workcell Setup

    El Workcell Setup es una ayuda que da FANUC para facilitar y agilizar la programación en losprogramas tipo Pick and Place. Básicamente, se añaden todos los elementos clave que actúanen la celda: el/los robot(s) con sus grippers, estación(es) de recogida de piezas y estación(es)de depósito. Estas estaciones pueden ser móviles (CV: conveyor, es decir, desde/a cintatransportadora) o fijas (FS: Fixed Station). Para cada estación, hay una serie de datos que sonfundamentales, que se irán rellenando, haciéndose luego los pertinentes vínculos entreestaciones y robot.

    La gran ventaja de utilizar Workcell Setup es que ya están todos los programas necesarioshechos desde FANUC, programados no sólo con programas TP sino también con programasKAREL. Esto significa que se ahorrará una cantidad enorme de tiempo, pues al ejecutar el“Main”, Workcell Setup construirá automáticamente el programa de recogida en tracking(desde la cinta) y el de depósito en estación fija, en el caso de esta aplicación. Y no sólo eso: losprogramas KAREL que se ocupan de la gestión de la cola de la visión, de la intercomunicaciónentre los robots (en caso de que haya más de uno)… también están ya incluidos. No es que nose pudiera hacer sin utilizar Workcell Setup, pero hacerlo sería añadir una carga de trabajoinnecesaria.

    Se muestra a continuación una imagen mostrando todos los elementos pertenecientes alWorkcell Setup para esta aplicación.

    Detecciónpor Visión

    Seguimientoutilizando

    Line Tracking

    Recogida dela pieza

    "siguiendola"

    Depositopieza en

    Fixed Station

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    40/169

    MEMORIAPick and Place Programación

    40

    Figura 7: elementos pertenecientes al Workcell Setup

    Se explica a continuación los elementos a configurar en cada pestaña.

    CINTA TRANSPORTADORA

    Asociar Encoder: cada cinta transportadora tiene asociado un encoder, ya sea absoluto oincremental. Se deberá activar y conectar el encoder al controlador 5. Se configurarán el stopthreshold (número de cuentas hasta el cual se considera que el motor está quieto) y el average

    (valor actual del encoder es la media móvil de las últimas lecturas). Para configurar estos doselementos, se deberá de hacerlo en Menu->Setup->Encóder.

    Selección Tracking Frame: el tracking frame es el la terna cartesiana que toman de referencialos programas de tracking. En nuestro caso, los puntos del programa de recogida seránrelativos a este frame. Es muy práctico, pues si se deseara cambiar la ubicación o la direcciónde la cinta transportadora una vez hecho ya todos los programas, sólo se tendría que modificarla posición del tracking frame.

    Para configurar el tracking frame, se deberá de ir a Menu->Setup->Tracking desde el Teach

    Pendant. Al entrar en este menú, se llevará a cabo la configuración del Tracking Schedule, quereúne toda la información necesaria para llevar a cabo el tracking.

    Para calcular el ratio counts encóder/mm, se ha de llevar a cabo el procedimiento SETTRAcking Frame en el Workcell Setup. También se podrá impostar desde la configuración delTracking Schedule, desde el menú anterior. En él, se pondrá el robot en un punto cualquiera dela cinta trasportadora. El robot memorizará el count del encóder para ese punto, así como lascoordenadas del punto. A continuación, se moverá la cinta transportadora a cualquier otropunto tal que ese punto siga estando dentro el rango del robot, y se moverá al robot al puntoanterior en la cinta transportadora. Utilizando el nuevo count del encóder, el robot podrá

    5 Para ver como conectarlo al controlador, ver anejo “1.3.3 : Conexión de cables al controlador”

    INTERACTUACIÓN ROBOT CON CINTAS/ESTACIONES FIJAS

    Configuración de posiciones de espera y approach offsets

    CONFIGURACIÓN DE CINTAS/ESTACIONES FIJAS

    Configuración de tipo de reconocimiento de piezas,sensores… Impostación de posición respecto al robot.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    41/169

    MEMORIAPick and Place Programación

    41

    calcular el ratio: por una parte tendrá la diferencia de counts del encóder entre los dos puntos,y por otra parte, la distancia entre los dos puntos a los que ha ido el robot.

    Boundaries: como ya explicado anteriormente, son las zonas de la cinta en las que al robot sele permite entrar para recoger la pieza. Hay tres:

    Upstream Boundary: la zona más aguas arriba en la cinta. Downstream Boundary: la zona más aguas abajo. Discard Line: es opcional, puede impostarse o no. Es una boundary tal que, una vez

    que la pieza la pasa, el robot irá a cogerla si y sólo si el proceso de recogida ya haempezado. Es decir, si el “esfuerzo” de ir a recogerla ya se está haciendo. Si no, sedescartará la pieza, y se irá a coger la siguiente.

    Figura 8: Boundaries, discard line, área de tracking

    Como antes, se podrán modificar ya sea del Workcell Setup que desde el Tracking Schedule.

    ESTACIÓN DE DEPÓSITO

    User Frame: Para que el robot sepa dónde está colocada la estación de depósito, se colocaráun user frame justo en el punto de depósito. Luego, desde Workcell Setup, se podrán meteroffsets de aproximación, siempre referidos al cero de este user frame.

    Tray: Para facilitar la programación dinámica al usar Workcell Setup, laspiezas se depositan usando pallets, aunque estos no existan.

    Básicamente, se dirá al robot cuantos niveles de depósito hay, cuantaspiezas tiene que depositar por nivel, su orientación y posición, yfinalmente, el orden en las que las tiene que colocar. Todas estascuotas estarán referidas al user frame utilizado para la estación dedepósito. En este caso, el depósito es único, de una sola pieza, con loque es una configuración muy sencilla.

    ROBOT

    Al crear tanto la cinta transportadora como la estación fija de depósito, para cada robot creado

    en Workcell Setup se crearán submenús, donde se impostarán configuraciones sobre lainteractuación de cada robot (en este caso sólo hay uno) con estas zonas de recogida y

    Figura 9: Disposición de untray

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    42/169

    MEMORIAPick and Place Programación

    42

    depósito: offsets de aproximación y posiciones de espera También se impostará en cadaestación si es de depósito o de recogida.

    1.1.3.4.3 CONFIGURACIÓN DE LA VISIÓN

    Se utilizará la visión para la detección de las piezas.

    Este proceso está constituido por los siguientes pasos:

    1. Instalación física de la cámara y su ajuste2. Calibración de la cámara para Visual Tracking3. Reconocimiento de objetos4. Punto de referencia común robot/sistema de visión.

    1 Instalación física

    El proceso de la instalación física de la cámara y su ajuste es muy parecido al apartadoanterior: se debe de encontrar una iluminación, una altura y un enfoque de la cámara quegarantice un proceso de reconocimiento estable y preciso. Aunque si es imprescindiblehacerlo, no se volverá a explicar el proceso, pues es muy parecido. La cámara se colocará deforma ortogonal al plano de fotografiado.

    Se utilizará una cámara Sony XC-56. Como antes, con la intención de minimizar el coste total.

    2 Calibración

    El objeto de la calibración es doble: posicionar la cámara respecto al robot y el cálculo del ratiopíxels/mm. El procedimiento es extremadamente simple: se pondrá una cuadrícula decalibración (como la mostrada en la figura de abajo), donde se le impostará al programa decalibración la distancia entre dos puntos consecutivos. Se debe de hacer notar que los trespuntos más gruesos marcan el eje X, mientras que los dos puntos gruesos el eje Y. Se deberáde colocar el eje X de la cuadrícula en dirección y sentido del avance de la cintatransportadora.

    Una vez hecho esto, se sacará una foto, y el programa reconocerá automáticamente los puntosde la cuadrícula. Como se ha impostado la distancia en mm entre punto y punto de lacuadrícula, el programa contará los píxels entre punto y punto; y de ahí, se obtendrá el ratiopíxels/mm.

    Este ratio es fundamental, pues primero, es una indicación de la precisión de la detección (amás pixeles por mm, mayor precisión); pero sobre todo, es lo que permitirá a la cámaracomunicarse con el robot y transmitirle la posición en mm de la pieza encontrada con respectoa la posición de referencia.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    43/169

    MEMORIAPick and Place Programación

    43

    Figura 10: calibración utilizando cuadrícula

    Calculando ese ratio, también se calcula la altura relativa cámara/cinta. El ratio pixel/mm sólodepende de la altura de la cámara (siempre y cuando la cámara este colocada ortogonalmentea la cinta). Calculando el ratio pixel/mm, se deduce la altura.

    Se debe destacar que, al hacer la calibración, el sistema obliga a mover la cuadrícula hasta el

    rango de alcance del robot; obligando a mover el TCP del robot hasta el origen de lacuadrícula. Haciendo esto, el sistema es capaz de calcular a qué distancia longitudinal (deavance de la cinta) hay desde el sistema de visión hasta el robot.

    Figura 11: campo de visión de la cámara

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    44/169

    MEMORIAPick and Place Programación

    44

    Una vez calculada la posición relativa robot-cámara, también se tendrán a disposición todas lasdistancias útiles que necesita la cámara, como la distancia desde el punto de detección hasta elupstream boundary.

    3 Reconocimiento de objetos

    Una vez finalizada la calibración, se procede a la creación de la referencia para la detección delos objetos. Se pueden crear varias referencias de distintos objetos, asignando a cada una unnúmero de modelo distinto. Luego, de querer, se podría hacer que el robot cogiera sólo uno delos modelos, que cogiera uno de cada uno… El caso de esta aplicación es el más sencillo detodos: sólo tenemos un tipo de objeto en la cinta, que será el que se tendrá que reconocer yrecoger.

    Se deberá de crear un proceso de visión: dentro de él, se crearán tantos GPM Locators como

    formas de objetos diferentes a localizar haya. Lo primero es crear el modelo con el que secompararán el resto de las imágenes tomadas: el programa detectará los bordes de la foto quese le dé, y se guardarán en la memoria. Se muestra a continuación el objeto a localizarvirtualizado en 3D en Solid Edge y cómo lo detecta el programa de visión.

    Figura 12: Izquierda, botella a reconocer. Derecha, captura y detección hecha para ser utilizadacomo patrón.

    Es posible que se hayan encontrado bordes que no interesan que formen parte del patrón, oque interese centrarse y hacer zoom en una parte en concreto del objeto. Todo esto se puedehacer añadiendo máscaras al patrón.

    4 Creación del punto de referencia

    Es muy importante la creación de un punto de referencia para el sistema de visión, para que elsistema pueda dotar de coordenadas a los objetos localizados. Para crear este sistema dereferencia, no importa la posición del objeto dentro del campo de visión. Una vez localizado elobjeto, se ejecutará el comando SET REFerence POSition. A partir de este momento, todas lascotas de posición que detecte la visión estarán referidas desde ese punto.

    Ahora se deberá crear un punto de referencia de recogida para el robot. Para ello, sin mover lapieza colocada en la cinta, se hará avanzar la cinta trasportadora hasta que esté al alcance delrobot. Se pondrá la pinza en la posición de recogida de la pieza, y se actualizará el valor del

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    45/169

    MEMORIAPick and Place Programación

    45

    PR[57]6. Se debe recordar a este punto que, la distancia longitudinal del punto de referencia(paralela al avance de la cinta) no tiene gran importancia, pues será el sistema de LineTracking, el encargado de gestionar la cola y mandar al robot a la posición longitudinalcorrecta.

    Para que el robot llegue a la posición correcta de la pieza en cada instante, se necesitan trescosas:

    Posición de referencia, PR[57] Offset dado por el sistema de visión, VR[1]. El VR[1] es el offset que detecta el sistema

    de visión respecto a su origen, que deberá de ser sumado también respecto al puntode referencia de recogida.

    Correcto posicionamiento longitudinal en la cinta, a medida que esta se mueve.

    1.1.3.4.4 PROGRAMAS TP

    Como ya se ha explicado anteriormente, una de las grandes facilidades que utilizar WorkcellSetup para la configuración del robot es el no tener que escribir programas TP, sino quehaciendo unas pequeñas modificaciones a los programas ya prediseñados es suficiente.

    Se muestra a continuación un esquema muy general de cómo funciona el programa.

    Figura 13: Esquema de los programas del pick and place

    6 El PR[57] es el registro de posición en el que se guarda la posición de referencia de recogida el robot entracking.

    MAIN

    Init

    HomePosition

    Pick fromConveyor

    Get PickData

    WaitPosition

    Pick Part

    Place inFixed Station

    Get DropData

    Drop Part

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    46/169

    MEMORIAPick and Place Programación

    46

    Inicialización (PK_INIT1.TP)

    Las funciones de este programa son las siguientes:

    Inicializar las variables que se utilizarán a lo largo del resto de los programas. Cargar la receta con la que se trabajará:

    o Impostar tipo de pick (si en cinta trasportadora o desde estación fija).o Impostar tipo de drop (lo mismo).o Impostar pick o drop, simple o múltiple.

    Actualizar información del gripper, actualizando los Tool Frames.

    Todo esto se hace utilizando programas KAREL y modificando variables del sistema. Muchas delas variables que utiliza para la elección de programas son leídas desde el Workcell Setup.Mediante registros que cambian de valor, se podrá definir todo el proceso de programación

    fácilmente. Y como se ha dicho ya antes, esa es la gran ventaja de utilizar Workcell Setup.

    Posición home (PK_PERCH1.TP)

    Mueve el robot a una posición conocida, que se imposta fuera de la zona de trabajonormalmente. Esto se hace para asegurarse que el robot esté inicialmente en una posicióndesde la que comenzará a trabajar sin colisionar contra nada. Aparte, al mover el robot enJoint, los ejes (J1,J2,…,J6) podrán “quitarse vueltas” y estar en una posición cómoda y conmargen hacia ambos lados del eje.

    Pick (PK_PICK1.TP)

    A partir de este punto, se abre un gran abanico de posible programas que pueden ser elegidos,dependiendo de los ajustes impostados en el Workcell Setup. Mediante el uso de registros,cuyo valor es impostado en la inicialización, se irán filtrando los programas que se usarán.

    En este caso, inicializando el registro R[109] a 0, se llamará al programa PK_CV_PICK11.TP, quese ocupa de la recogida de piezas desde cinta transportadora.

    Pick desde cinta transportadora (PK_CV_PICK11.TP)

    De una manera muy simplificada, el tracking funciona de la siguiente manera: en el momentode sacar la foto, se guarda también la cuenta del encoder. Como ya dicho anteriormente, alsacar la foto se localizará el objeto, pero desde ese momento, será el programa de LineTracking el que se ocupe de posicionar el objeto. Sabiendo el ratio pulso de encoders/mm,calculado ya anteriormente, es posible saber la posición exacta de la pieza en cada momento.

    Lo primero que hace el programa es llamar al programa KAREL PKGETQUE.PC. Al ir la cámarasacando fotos y localizando diferentes objetos, se irá generando una cola. Al fotografiar elobjeto y reconocerlo, la cámara añade ese objeto a la cola, en última posición. El robot, alcoger la pieza, elimina ese objeto de la cola. Este programa coge el primer objeto que seencuentra en la cola y adquiere sus coordenadas, y las carga en la memoria del robot.

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    47/169

    MEMORIAPick and Place Programación

    47

    Una opción muy interesante, que en esta aplicación se utiliza, pues ayuda a reducir tiempociclo (y por tanto pudiendo coger más piezas al minuto); es impostar posiciones de espera.Antes de que la parte entre en la zona de trabajo del robot (por tanto, antes de llegar a laUpstream Boundary), y siempre y cuando no haya ninguna otra pieza al alcance, el robot,utilizando la posición recién adquirida del programa PKGETQUE, se colocará en la orientación yla posición transversal a la cinta del objeto, con la altura relativa a la cinta del offset deaproximación.

    El robot seguirá la pieza a la velocidad de la cinta transportadora, de tal manera que lavelocidad relativa pinza pieza sea nula, para asegurarse que la pieza sea agarradacorrectamente.

    Es muy importante que, al coger la pieza, se cambie el payload del robot. El robot secomportará, reaccionará e incluso seguirá distintas trayectorias de acuerdo con el payload.Para payloads altos (acorde con su capacidad máxima de carga), los movimientos serán máslentos, las aceleraciones más suaves y las trayectorias menos abruptas.

    Se muestra a continuación las líneas TP más importantes del programa de pick desde la cinta.

    Figura 14: líneas programación esenciales pick desde cinta

    Se deben de remarcar los siguientes aspectos de la programación:

    Para no tener que impostar una gran cantidad de puntos, lo que se hace es añadir unpunto de referencia, al que se le irán sumando offsets para alcanzar distintos puntos. Seutilizan dos tipos de offsets en las líneas TP mostradas en la figura 13.

    o L PR[57] VOFFSET, VR[1]: del sistema de visión. Serán las coordenadas relativas alpunto de referencia ya impostado durante la configuración de la visión.

    o L PR[57] Tool_Offset PR[56]: de la longitud de la herramienta. En este caso, seutiliza con otro propósito, que es añadir un offset de aproximación.

    Para optimizar las trayectorias que calcula el robot dependiendo de la carga que lleve, asícomo de sus inercias, se deberá de cambiar el payload. En este caso, se instaura elpayload número uno, el de la pinza con pieza cargada.

    El robot hace los siguientes movimientos:o Primero, se coloca en la posición de aproximación. Aunque no se muestre en

    estas líneas, el robot esperará en ese punto hasta que haya una pieza que seaalcanzable. (líneas 50-53 figura 13).

  • 8/20/2019 Infoplc Net 53874e7438b38 Paletizado

    48/169

    MEMORIAPick and Place Programación

    48

    o Cuando haya una pieza, irá a recogerla. Se puede ver en la línea 59 que se llamaal programa KAREL PKGRCLOSE. Este programa cerrará la pinza para que coja lapieza, aplicando la espera de cierre correspondiente (bien sea tiempo o espera aque una entrada del robot RI se active).

    o Finalmente, el robot se aleja de la zona de recogida. (líneas 76 y 77 de la figura13).

    Se debe de recordar que el PR[57] es el punto de referencia entre el sistema de visión y elrobot. Deberá de estar correctamente impostado, como ya se ha explicado anteriormente enla configuración de la visión.

    Drop (PK_DROP1.TP)

    Tiene la misma estructura que el PK_PICK1.TP. Esta vez, no obstante, al estar el R[129]

    inicializado a 1, se irá a depositar la pieza en una estación fija.

    Drop en estación fija (PK_FS_DROP11.TP)

    Para conocer la posición de la estación de depósito fija, como ya explicado anteriormente, sefija un User Frame.

    Antes de colocar la pieza, se deberá