• Navigation überspringen
  • Zur Navigation
  • Zum Seitenende
Organisationsmenü öffnen Organisationsmenü schließen
Friedrich-Alexander-Universität Chair of Computer Science 3 CS3
  • FAUZur zentralen FAU Website
  1. Friedrich-Alexander-Universität
  2. Technische Fakultät
  3. Department Informatik
Suche öffnen
    1. Friedrich-Alexander-Universität
    2. Technische Fakultät
    3. Department Informatik
    Friedrich-Alexander-Universität Chair of Computer Science 3 CS3
    Menu Menu schließen
    • Research
    • Teaching
    • Staff
    • Jobs
    1. Startseite
    2. Teaching
    3. Thesis Topics / Themen Abschlussarbeiten

    Thesis Topics / Themen Abschlussarbeiten

    Bereichsnavigation: Teaching
    • Architectures of Supercomputers
    • Computational Engineering 1
    • Computational Engineering 2
    • CPU-Entwurf mit VHDL (CPU)
    • Echtzeitfähige Rechnerarchitekturen (ERA)
    • Geschichte der Rechentechnik
    • Grundlagen der Rechnerarchitektur und -organisation (GRa)
    • Neuartige Rechnerarchitekturen (NeuRa)
    • Rechnerarchitektur
    • Themenbereiche für mögliche Abschlussarbeiten
    • Thesis Topics / Themen Abschlussarbeiten

    Thesis Topics / Themen Abschlussarbeiten

    Porting OpenRAM SRAM Generator to Open Source IHP Technology

    Art der Arbeit:

    Bachelorarbeit/Masterarbeit/Projektarbeit

    Betreuer:

    Michael Kupfer, Thomas Schlögl

    Lehrstuhl für Informatik 3 (Rechnerarchitektur)

    Email: michael.kupfer@fau.de, thomas.schloegl@fau.de

    Description:

    SRAM is vital in modern hardware and custom accelerators because it delivers nanosecond-scale speed and predictable timing, acting as essential high-speed cache to prevent processors from stalling. Crucially, it’s power-efficient and integrates directly on-chip, minimizing costly off-chip data accesses – making it indispensable for energy-sensitive custom hardware (like AI accelerators) where low latency and high throughput are non-negotiable. In short, SRAM is the fast, efficient fuel for high-performance compute.

    In this work, the Open Source PDK by IHP (Leibniz Institute for High Performance Microelectonics) should be ported to the Open Source SRAM generator „OpenRam„. This needs in depth understanding of the structure and functionality of SRAM memory. You will have to layout custom cells like a reusable SRAM cell (e.g. a 6T cell), a write driver and a sense amplifier using the IHP design properties, extract important electrical properties and do spice simulations of the components. After this groundwork, you will extend the OpenRAM Python framework to use this data during the generation process.  The aim is to be able to generate custom SRAM memory configurations by the end of the project.

    30% Concept
    50% Implementation
    20% Benchmarking

    Optimierung & Evaluierung von Posit-Funktionseinheiten im Vergleich zu IEEE Floating-Point auf FPGAs und im ASIC-Entwurf

    Art der Arbeit:

    Bachelorarbeit/Masterarbeit

    Betreuer:

    Thomas Schlögl

    Lehrstuhl für Informatik 3 (Rechnerarchitektur)

    Email: thomas.schloegl@fau.de

    Beschreibung der Arbeit:

    Posits, 2017 von John L. Gustafson eingeführt, stellen eine Alternative zum IEEE-754 Gleitkomma-Arithmetik Standard dar. Laut anfänglicher Untersuchungen scheinen sie Vorteile in der Darstellung kleiner Zahlen und in ihrer dynamischen Reichweite im Vergleich zum etablierten Standard zu besitzen. Leider gibt es kaum Untersuchungen die einen Vorteil von Posits hinsichtlich konkreter Hardware-Implementierungen untersuchen.

    Im Laufe dieser Arbeit sollen unterschiedliche Posit-Funktionseinheiten (z.B. Addition, Multiplikation) im Vergleich zu IEEE-Floating-Point-Einheiten auf Resourcenverbrauch (Anzahl LUTs auf FPGAs und Anzahl der Standardzellen im ASIC-Entwurf) und Verzögerung evaluiert und optimiert werden.

    30% Konzeption
    30% Implementierung
    40% Benchmarking

    Mixed-Darstellungen für ternäre CPU

    Art der Arbeit:

    Studien-/Bachelor-/Diplom-/Masterarbeit

    Betreuer:

    Fey, Dietmar
    Lehrstuhl für Informatik 3 (Rechnerarchitektur)
    Email: dietmar.fey@fau.de

    Beschreibung der Arbeit:

    Ein Kernproblem in der Digitalelektronik sind entstehende Überträge bei der Addition. Werden beispielsweise 11111 + 00001 addiert, so setzt der Übertrag von der letzten Stelle bis zur vordersten Stelle fort. Um dieses Problem zu umgehen, werden sogenannte redundante Zahlensysteme verwendet, mit denen sich eine Zahl durch mehrere Bitfolgen darstellen lässt. Am Lehrstuhl wurde deshalb ein neuer Prozessor auf RISC-V Basis entworfen, der solche redundanten Zahlendarstellungen nutzt und deswegen eine Beschleunigung erzielen kann.

    Leider bieten genannte Zahlensysteme nicht nur Vorteile. Zur Abarbeitung von Sprüngen beispielsweise, kann die Nutzung o.g. Zahlendarstellung einen Zusatzaufwand bedeuten. Aus diesem Grund soll in dieser Arbeit ein hybrides Vorgehen analysiert werden. Rechenintensive Datenpfade sind mit redundanter Arithmetik zu analysieren, Kontrollpfade in klassischer Arithmetik. Die Architekturentwicklung erfolgt mittels abstrakter Beschreibungssprachen (C/C++/SystemC).

    Konzeption: 40%
    Architekturentwicklung: 40%
    Simulation / Benchmarking: 20%

     

     

    DL Beschleuniger mit ternären Datenpfaden

    Art der Arbeit:

    Studien-/Bachelor-/Diplom-/Masterarbeit

    Betreuer:

    Fey, Dietmar
    Lehrstuhl für Informatik 3 (Rechnerarchitektur)
    E-Mail: dietmar.fey@fau.de

    Ebrahimiazandaryani, Farhad
    Lehrstuhl für Informatik 3 (Rechnerarchitektur)
    Email: farhad.ebrahimiazandaryani@fau.de

    Beschreibung der Arbeit:

    Ein Kernproblem in der Digitalelektronik sind entstehende Überträge bei der Addition. Werden beispielsweise 11111 + 00001 addiert, so setzt der Übertrag von der letzten Stelle bis zur vordersten Stelle fort. Um dieses Problem zu umgehen, werden sogenannte redundante Zahlensysteme verwendet, mit denen sich eine Zahl durch mehrere Bitfolgen darstellen lässt. Am Lehrstuhl wurde deshalb ein neuer Prozessor auf RISC-V Basis entworfen, der solche redundanten Zahlendarstellungen nutzt und deswegen eine Beschleunigung erzielen kann.

    Die genannten Konzepte lassen sich jedoch nicht nur auf komplette Prozessoren, sondern auch auf Beschleunigerkerne selbst, beispielsweise für die schnelle Inferenz neuronale Netze anwenden. In dieser Abschlussarbeit soll ein Beschleunigerkern in einer abstrakten Beschreibungssprache (SystemC) mit ternären Datenpfaden entworfen werden.

    Konzeption: 30%
    Programmierung: 50%
    Evaluation: 20%

     

     

    Untersuchung des NEC Aurora TSUBASA Vektorprozessors

    Art der Arbeit:

    Master Thesis

    Betreuer:

    Fey, Dietmar
    Lehrstuhl für Informatik 3 (Rechnerarchitektur)
    Email: dietmar.fey@fau.de

    Beschreibung der Arbeit:

    In der Arbeit soll das Performance- und Energieverhalten der neuen NEC Aurora TSUBASA Architektur (https://www.nec.com/en/global/solutions/hpc/sx/vector_engine.html) mit Hilfe verschiedener, zum Teil während der Arbeit entwickelter, Benchmarks untersucht werden.
    Empfohlene Vorraussetzungen: Gute Linux- und C-Kenntnisse, Aufbau von Rechnerarchitekturen (z.B. VL GRa oder RA), Erfahrung mit Benchmarking (z.B. RA-RÜ, PTfS, SoCuPra)

    Schlagwörter:

    Performance, Modeling, NEC, TSUBASA

     

    Peripheral Circuitry Design for ReRAM (Resistive Random Access Memory)

    Type of work:

    Master’s thesis

    Supervisor:

    John Reuben

    Lehrstuhl für Informatik 3 (Rechnerarchitektur)

    Email: johnreuben.prabahar@fau.de

    Description of the thesis:

    Resistive RAMs are a class of emerging Non-Volatile Memories (NVMs) which store data as resistance. Under voltage/current stress, the resistance can be switched between a Low Resistance State (LRS) and a High Resistance State (HRS) . The word ‘memristor’ is also used by researchers to refer to a ReRAM device since such a device is basically a ‘resistor’ with a ‘memory’. ReRAM devices  are arranged in rows and columsn to form memory arrays and CMOS peripheral circuits are needed to read and write into them. ReRAM technology faces some challenges like variability i.e. the resistance to which the device is programmed varies from cycle-to-cycle. This complicates the WRITE and READ process. In this work, peripheral circuits need to be designed for the ReRAM array. This includes design of variability-aware READ and WRITE circuits. Another challenge is the area- the peripheral circuits occupy much area when compared to the area occupied by the memory arrray. Design of compact peripheral circuit (especially Sense amplifier) is a very much needed. Finally, the peripheral circuits must be energy efficient.

    Work estimate:

    30% Conception

    40% Circuit design (Analog and Mixed signal)

    40% Simulation in Cadence Virtuoso.

    Reference:

    1. A. Levisse et al., „Write Termination Circuits for RRAM: A Holistic Approach From Technology to Application Considerations,“ in IEEE Access, vol. 8, pp. 109297-109308, 2020,
    2. X. Zhang, B.-K. An, and T. T.-H. Kim, “A robust time-based multi-level sensing circuit for resistive memory,” IEEE Transactions on Circuits and Systems I: Regular Papers, vol. 70, no. 1, 340–352, 2023.

     

     

    In-memory Computing in ReRAM (Resistive Random Access Memory)

    Type of work: Master‘s thesis

    Supervisor:

    John Reuben

    Lehrstuhl für Informatik 3 (Rechnerarchitektur)

    Email: johnreuben.prabahar@fau.de

    Description of the thesis:

    Resistive RAMs are a class of emerging Non-Volatile Memories (NVMs) which store data as resistance. Under voltage/current stress, the resistance can be switched between a Low Resistance State (LRS) and a High Resistance State (HRS) . The word ‘memristor’ is also used by researchers to refer to a ReRAM device since such a device is basically a ‘resistor’ with a ‘memory’. The memory wall (von Neuman Bottleneck) faced by computer architects necessitated a paradigm shift in the way data is processed. At the moment, there is an increasing trend to move processing to the location of data i.e. in-memory computing. The term ‘in-memory computing’  is used to

    refer to any effort to process data at the residence of data (i.e. in the ReRAM array) without moving them to a separate processing unit. Simple tasks like Addition and Matrix Vector multiplication have been performed in memory. In this project, we will try to implement  new logic gates (e.g. XOR gate) completely  in the memory or partially (a part in memory and a part in the the peripheral circuits of the memory array). Another challenge is that the peripheral circuits needed for Matrix vector multiplication like ADC/DAC occupy huge area when compared the the ReRAM array. Smart design techniques are needed to re-design the peripheral circuits to be suitable for in-memory computing.

    Work estimate:

    30% Conception

    40% Circuit design (Analog and Mixed signal)

    40% Simulation in Cadence Virtuoso.

    Reference:

    1. A. Amirsoleimani, F. Alibart, V. Yon, J. Xu, M. R. Pazhouhandeh, S. Ecoffey, Y. Beilliard, R. Genov, and D. Drouin, “In-memory vector-matrix multiplication in monolithic complementary metal–oxide–semiconductor-memristor integrated circuits: Design choices, challenges, and perspectives,” Advanced Intelligent Systems, vol. 2, no. 11, p. 2000115, 2020.
    1. John Reuben and S. Pechmann, “Accelerated addition in resistive ram array using parallel-friendly majority gates,” IEEETransactions on Very Large Scale Integration (VLSI) Systems, vol. 29, no. 6, pp. 1108–1121, 2021

     

    Friedrich-Alexander-Universität
    Lehrstuhl für Informatik 3

    Martensstrasse 3
    91058 Erlangen
    • Impressum
    • Datenschutz
    • Barrierefreiheit
    • RSS Feed
    Nach oben